| GaonIT Cloud — 호스팅 & 클라우드
가온IT

GPU 인스턴스

개발자가 사랑하는 호스팅 & 클라우드. 지금 바로 시작하세요.

GPU 인스턴스 (AI/ML Compute)

학습(Training)부터 추론(Inference)·비디오 처리까지. NVIDIA GPU 기반 환경을 컨테이너/드라이버와 함께 제공하며, 요금은 모두 별도문의로 안내합니다.

🚀 빠른 프로비저닝
분 단위 제공, 컨테이너/이미지로 즉시 시작. 예약/장기 약정(옵션).
🧩 유연한 구성
단일/멀티 GPU, 혼합 인스턴스, 전용 호스트(옵션).
🛡️ 운영/보안
드라이버·CUDA 관리, 네트워크 정책/보안그룹, 프라이빗 액세스.
📈 가시성
GPU/CPU/메모리/디스크/네트워크 메트릭 및 로깅 제공.

라인업(예시)

필터:
인스턴스 GPU VRAM(GB) vCPU RAM(GB) 로컬 SSD(GB) 네트워크 용도 요금
g-A10.1x A10 24 8 32 300 10GbE 추론/비디오 별도문의
g-A100.40-1x A100 40 32 128 1000 25GbE 학습/파인튜닝 별도문의
g-A100.80-4x A100 ×4 320 64 256 2000 100GbE(옵션) 대규모 학습 별도문의
g-L4.1x L4 24 16 64 600 25GbE 비디오 트랜스코딩/서비스 별도문의
g-RTX6000.1x RTX 6000 Ada 48 16 64 600 10GbE 시각화/렌더링 별도문의
* 표는 예시입니다. 실제 라인업/사양/요금은 상담 후 확정됩니다.
성능/옵션(협의 제공)
MIG/멀티‑GPU
MIG 분할(가능 모델 한정) 또는 NVLink/멀티 카드 구성.
혼합 정밀도
FP16/BF16/TF32 등으로 속도·메모리 최적화.
예약/전용 호스트
장기 예약/전용 서버로 성능 고정 및 보안 강화.
모니터링
GPUutil/VRAM/온도·전력 등 실시간 지표/알림.
소프트웨어 스택
드라이버/런타임
  • NVIDIA Driver, CUDA, cuDNN(버전 고정/호환성 관리)
  • Docker + NVIDIA Container Runtime
  • PyTorch/TensorFlow 등 프레임워크 컨테이너
샘플 명령
# 드라이버 확인
nvidia-smi

# GPU 접근 권한으로 컨테이너 실행
docker run --rm --gpus all nvidia/cuda:12.3.0-base-ubuntu22.04 nvidia-smi
프레임워크 테스트(PyTorch)
python - <<'PY'
import torch
print('cuda available:', torch.cuda.is_available())
print('device count:', torch.cuda.device_count())
print('name:', torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'N/A')
PY
스토리지
로컬 NVMe
고성능 임시 디스크(체크포인트/캐시).
블록/네트워크 스토리지
확장 가능한 볼륨, NFS/Ceph 등 공유 스토리지.
스냅샷/백업
주기 스냅샷과 원격 백업(옵션).
데이터 이행
초기 적재/이전 지원(오프라인/온라인).
네트워크
대역폭
10/25/40/100GbE(협의), 퍼블릭/프라이빗 세그먼트.
보안그룹
인바운드/아웃바운드 정책, 고정 IP(옵션).
로드밸런서
L4/L7 분산 및 헬스체크.
프라이빗 액세스
VPC/전용선/피어링으로 내부 리소스 연동.
배포/예제
Docker Compose
version: "3.9"
services:
  trainer:
    image: nvcr.io/nvidia/pytorch:24.05-py3
    deploy:
      resources:
        reservations:
          devices: [ { capabilities: ["gpu"] } ]
    volumes: ["./data:/data"]
    command: ["python", "train.py", "--epochs", "3"]
환경 체크
# CUDA/드라이버 확인
nvidia-smi --query-gpu=name,driver_version,memory.total --format=csv

# NCCL 테스트(멀티 GPU 환경)
# (환경에 맞게 수정)
export NPROC_PER_NODE=4
mpirun -np $NPROC_PER_NODE --allow-run-as-root bash -lc 'echo NCCL OK'
요금 안내
요금: 별도문의

GPU 모델/수량, vCPU·RAM, 스토리지/네트워크 구성, 예약 기간(선택)에 따라 산정합니다. 워크로드별 최적 구성을 제안드려요.

GPU로 학습·추론을 바로 시작하세요
모델/데이터/예산을 알려주시면 최적 사양을 추천해드립니다.