분석자들이 함께 열람할 수 있는 공용 데이터 저장소를 생성, 변경, 삭제할 수 있습니다.분석자 그룹별로 전용 분석 공간을 구축하고 상황에 따라 각 공간의 분석 인프라를 증설 또는 축소할 수 있습니다.분석 인프라 및 분석 도구별 접속 정보를 열람하고 필요시 다시 설정할 수 있습니다.
공용 데이터 저장소에 분석 대상 데이터를 업로드하거나 삭제할 수 있습니다.공용 데이터 저장소의 여러 볼륨을 가상의 데이터 그룹으로 묶어 일괄 관리할 수 있습니다.분석자 공간별로 공용 데이터 열람을 허용하거나 차단할 수 있습니다.
Data Box 관리자는 분석자 공간별로 외부와의 통신 허용 여부를 설정할 수 있습니다. (기본: 차단 상태)분석자는 Data Box 관리자의 동의 없이 임의로 분석 공간 내 데이터를 외부로 반출할 수 없습니다.
분석자는 콘솔 또는 API를 이용하여 분석에 활용할 개별 데이터를 전용 분석 공간에 반입할 수 있습니다.데이터 반입 현황은 네이버 클라우드 플랫폼의 콘솔에서 조회할 수 있습니다.
Data Box 관리자는 각 분석자가 신청한 분석 결과의 반출 타당성을 직접 심사할 수 있습니다.Data Box 관리자가 분석 결과 반출을 승인하면 해당 파일은 Data Box Frame 외부 공간으로 자동 반출됩니다.반출 신청 및 타당성 심사 현황은 네이버 클라우드 플랫폼의 콘솔에서 조회할 수 있습니다.
용도 | 서비스 코드 | Spec | 선택 가능 대수 | ||||||
---|---|---|---|---|---|---|---|---|---|
vCPU | Mem (GB) | vGPU | Mem (GB) | OS Disk (GB) ※ SSD | 기타 | ||||
필수 | Connect Server (분석 공간 접속용) | Connect Windows Server (S2 W1) | 2 | 8 | - | - | 100 | Windows | 각 Box당 1~4대 (1대 이상 선택 필수) |
Connect Windows Server (S4 W1) | 4 | 16 | - | - | 100 | Windows | |||
Connect Windows Server (S8 W1) | 8 | 32 | - | - | 100 | Windows | |||
Connect Windows Server (S16 W1) | 16 | 64 | - | - | 100 | Windows | |||
Connect Windows Server (S32 W1) | 32 | 128 | - | - | 100 | Windows | |||
Connect Windows Server (M2 W1) | 2 | 16 | - | - | 100 | Windows | |||
Connect Windows Server (M4 W1) | 4 | 32 | - | - | 100 | Windows | |||
Connect Windows Server (M8 W1) | 8 | 64 | - | - | 100 | Windows | |||
Connect Windows Server (M16 W1) | 16 | 128 | - | - | 100 | Windows | |||
Connect Windows Server (M32 W1) | 32 | 256 | - | - | 100 | Windows | |||
Connect Windows Server (C2 W1) | 2 | 4 | - | - | 100 | Windows | |||
Connect Windows Server (C4 W1) | 4 | 8 | - | - | 100 | Windows | |||
Connect Windows Server (C8 W1) | 8 | 16 | - | - | 100 | Windows | |||
Connect Windows Server (C16 W1) | 16 | 32 | - | - | 100 | Windows | |||
Connect Windows Server (C32 W1) | 32 | 64 | - | - | 100 | Windows | |||
필수 | Tensorflow Server (AI 분석용) | Tensorflow CPU Linux Server (S2-L1) | 2 | 8 | - | - | 50 | Linux | 각 Box당 CPU 서버: 1~4대 GPU 서버: 1~2대 (CPU, GPU 중 1대 이상 선택 필수) |
Tensorflow CPU Linux Server (S4-L1) | 4 | 16 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (S8-L1) | 8 | 32 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (S16-L1) | 16 | 64 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (S32-L1) | 32 | 128 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (M2-L1) | 2 | 16 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (M4-L1) | 4 | 32 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (M8-L1) | 8 | 64 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (M16-L1) | 16 | 128 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (M32-L1) | 32 | 256 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (C2-L1) | 2 | 4 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (C4-L1) | 4 | 8 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (C8-L1) | 8 | 16 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (C16-L1) | 16 | 32 | - | - | 50 | Linux | |||
Tensorflow CPU Linux Server (C32-L1) | 32 | 64 | - | - | 50 | Linux | |||
Tensorflow GPU Linux Server (GP8V1-L1) | 8 | 90 | 1 | 32 | 50 | Linux | |||
Tensorflow GPU Linux Server (GP16V2-L1) | 16 | 180 | 2 | 64 | 50 | Linux | |||
Tensorflow GPU Linux Server (GP32V4-L1) | 32 | 360 | 4 | 128 | 50 | Linux | |||
Tensorflow GPU Linux Server (GP4T1-L1) | 4 | 20 | 1 | 16 | 50 | Linux | |||
Tensorflow GPU Linux Server (GP8T1-L1) | 8 | 40 | 1 | 16 | 50 | Linux | |||
Tensorflow GPU Linux Server (GP16T2-L1) | 16 | 80 | 2 | 32 | 50 | Linux | |||
선택 | Server (데이터 분석용) | CPU Linux Server (S2 L1) | 2 | 8 | - | - | 50 | Linux | 각 Box당 0~4대 |
CPU Linux Server (S4 L1) | 4 | 16 | - | - | 50 | Linux | |||
CPU Linux Server (S8 L1) | 8 | 32 | - | - | 50 | Linux | |||
CPU Linux Server (S16 L1) | 16 | 64 | - | - | 50 | Linux | |||
CPU Linux Server (S32 L1) | 32 | 128 | - | - | 50 | Linux | |||
CPU Linux Server (M2 L1) | 2 | 16 | - | - | 50 | Linux | |||
CPU Linux Server (M4 L1) | 4 | 32 | - | - | 50 | Linux | |||
CPU Linux Server (M8 L1) | 8 | 64 | - | - | 50 | Linux | |||
CPU Linux Server (M16 L1) | 16 | 64 | - | - | 50 | Linux | |||
CPU Linux Server (M32 L1) | 32 | 128 | - | - | 50 | Linux | |||
CPU Linux Server (C2 L1) | 2 | 4 | - | - | 50 | Linux | |||
CPU Linux Server (C4 L1) | 4 | 8 | - | - | 50 | Linux | |||
CPU Linux Server (C8 L1) | 8 | 16 | - | - | 50 | Linux | |||
CPU Linux Server (C16 L1) | 16 | 32 | - | - | 50 | Linux | |||
CPU Linux Server (C32 L1) | 32 | 64 | - | - | 50 | Linux | |||
GPU Linux Server (GP16V2-L1) | 16 | 180 | 2 | 64 | 50 | Linux | 각 Box당 0~2대 | ||
GPU Linux Server (GP32V4-L1) | 32 | 360 | 4 | 128 | 50 | Linux | |||
GPU Linux Server (GP4T1-L1) | 4 | 20 | 1 | 16 | 50 | Linux | |||
GPU Linux Server (GP8T1-L1) | 8 | 40 | 1 | 16 | 50 | Linux | |||
GPU Linux Server (GP16T2-L1) | 16 | 80 | 2 | 32 | 50 | Linux | |||
선택 | Hadoop Cluster Server (빅 데이터 분석용) | Hadoop Linux Server (C8-H1) | 8 | 16 | - | - | 50 | Linux | 각 Box당 0~2개 Cluster Edge: Cluster당 1개 Master: Cluster당 2개 Worker: Cluster당 2~8개 |
Hadoop Linux Server (S4-H1) | 4 | 16 | - | - | 50 | Linux | |||
Hadoop Linux Server (S8-H1) | 8 | 32 | - | - | 50 | Linux | |||
Hadoop Linux Server (M4-H1) | 4 | 32 | - | - | 50 | Linux | |||
Hadoop Linux Server (M8-H1) | 8 | 64 | - | - | 50 | Linux | |||
선택 | 추가 Block Storage (서버별 데이터 저장용) | Block Storage (SSD) | - | - | - | - | - | SSD | 서버당 1개 스토리지 스토리당 100GB~2TB |
필수 | NAS (분석 결과 저장용) | NAS | - | - | - | - | - | - | 각 Box당 1~4개 볼륨 볼륨당 500GB~10TB (1개 볼륨 이상 선택 필수) |
필수 | SSLVPN ID (분석 공간 접속용) | SSLVPN ID (2-factor) | - | - | - | - | - | 2차 인증 | 각 Connect Server당 ID 1~3개 (Connect 서버당 1개 이상 선택 필수) |
Network | - | - | - | - | - | - |
서비스에서 허용하지 않는 방법으로 데이터를 Data Box Frame 외부로 임의 반출하려는 시도는 금지됩니다.
Data Box Frame의 각 Box로 데이터 반입 시 악성코드 검사가 선행되며 의심 요소가 발견될 경우 데이터 반입이 거절될 수 있습니다.
Box별 분석 결과를 반출하기 위한 타당성 심사는 Data Box 관리자가 직접 수행합니다. Data Box 관리자가 반출을 승인하면 분석 결과가 자동으로 Box 외부의 Object Storage로 반출됩니다.
Data Box 관리자는 Box별로 외부와의 통신을 직접 허용하거나 차단할 수 있습니다. 단, 외부 통신을 허용할 경우 분석자가 데이터를 임의로 외부에 반출할 수 있게 되므로 설정에 유의해 주십시오.
Data Box Frame에서 제공하는 분석 인프라는 각 서비스의 정책을 따릅니다. 자세한 사용 방법은 서비스별 사용 가이드를 참고해 주십시오.
구분 | 서비스 코드 | vCPU | CPU 메모리 | vGPU | 디스크 | 과금 단위 | 단위 | 이용 요금 |
---|---|---|---|---|---|---|---|---|
기본 요금 | - | - | - | - | - | Data Box Frame | 월 | - |
Connect Server | Connect Windows Server (S2 W1) | 2개 | 8GB | - | 100GB | Server | 시간 | - |
Connect Server | Connect Windows Server (C2 W1) | 2개 | 4GB | - | 100GB | Server | 시간 | - |
Connect Server | Connect Windows Server (C4 W1) | 4개 | 8GB | - | 100GB | Server | 시간 | - |
Connect Server | Connect Windows Server (C8 W1) | 8개 | 16GB | - | 100GB | Server | 시간 | - |
Connect Server | Connect Windows Server (C16 W1) | 16개 | 32GB | - | 100GB | Server | 시간 | - |
Tensorflow Server | Tensorflow CPU Linux Server (S4-L1) | 4개 | 16GB | - | 50GB | Server | 시간 | - |
Tensorflow Server | Tensorflow CPU Linux Server (S8-L1) | 8개 | 32GB | - | 50GB | Server | 시간 | - |
Tensorflow Server | Tensorflow CPU Linux Server (M4-L1) | 4개 | 32GB | - | 50GB | Server | 시간 | - |
Tensorflow Server | Tensorflow CPU Linux Server (M8-L1) | 8개 | 64GB | - | 50GB | Server | 시간 | - |
Tensorflow Server | Tensorflow CPU Linux Server (M16-L1) | 16개 | 128GB | - | 50GB | Server | 시간 | - |
Tensorflow Server | Tensorflow CPU Linux Server (M32-L1) | 32개 | 256GB | - | 50GB | Server | 시간 | - |
Tensorflow Server | Tensorflow GPU Linux Server (GP16V2-L1) | 16개 | 180GB | 2개 | 50GB | Server | 시간 | - |
Tensorflow Server | Tensorflow GPU Linux Server (GP32V4-L1) | 32개 | 360GB | 4개 | 50GB | Server | 시간 | - |
Tensorflow Server | Tensorflow GPU Linux Server (GP4T1-L1) | 4개 | 20GB | 1개 | 50GB | Server | 시간 | - |
Tensorflow Server | Tensorflow GPU Linux Server (GP8T1-L1) | 8개 | 40GB | 1개 | 50GB | Server | 시간 | - |