top of page

NVIDIA GPU 서버 2가지 타입 비교

NVIDIA 직접 설계 및 제조하는 제품과 HPE, Dell, 슈퍼마이크로 등 서버 벤더가 제조한 GPU 서버를 비교합니다.

NVIDIA GPU 서버 2가지 타입 가격

NVIDIA가 직접 설계 및 제조한 DGX B200은 대략 12억 원(부가세 별도) 정도로 공급됩니다.

 

NVIDIA 프로그램에 가입하면 DGX 시리즈 제품 구매 시, 최대 30% 까지 할인을 받을 수 있습니다.

HPE, Dell, 슈퍼마이크로 등 벤더가 제조한 B200 x 8장 탑재 GPU 서버의 가격은 사양이 동일하더라도 제조사에 따라 가격 차이가 있으며, DGX B200 보다 높을 수도 낮을 수도 있습니다.

따라서, DGX B200 및 서버 벤더의 B200 x 8장 탑재 GPU 서버의 가격 및 견적 비교가 필요합니다.

퀀텀브릭스는 합리적인 가격으로 GPU 서버를 공급, 고객사 / 파트너의 AI 비지니스를 지원합니다.

탑재수량별 GPU 서버 가격

B200 GPU 8장이 탑재된 NVIDIA DGX B200 GPU 서버 전면 이미지

GPU 서버 2가지 타입 비교표 (B200x8장 탑재 기준)

NVIDIA가 직접 설계 및 제조한 B200 x 8장 탑재 제품, DGX B200 과 HPE, Dell 등 서버 벤더가 제조한 B200 x 8장 탑재 GPU 서버를 비교합니다.

​비교 항목

DGX B200

벤더 GPU 서버

제조사

NVIDIA 직접 설계 및 제조

HPE, Dell 등 서버 제조사

GPU 탑재 수량

B200 x 8장

B200 x 8장

CPU

112 코어, Intel Xeon P8570

선택

​메모리

2TB, 최대 4TB 확장 가능

​선택

가격

NVIDIA 프로그램 가입 30% 할인

제조사 마다 차이 존재

브랜드 상징성

우리회사 DGX 있다는 자부심

​제조사 마다 차이 존재

성능

NVIDIA 직접 튜닝 최적화

제조사 마다 차이 존재

실전 투입 속도

전원 꽂고 바로 모델 학습

드라이버와 OS 세팅 필요

기술지원

NVIDIA 직접 및 파트너

각 제조사 파트너

AI S/W

AI Enterprise 풀 패키지 탑재

​선택

냉각 솔루션

표준화된 공냉 / 수냉 가이드

제조사 마다 다른 기술

부품 수급력

내 자식 우선 원칙

할당량 기다리는 인내

중고 잔존 가치

서버계의 페라리, 압도적 방어

감가상각 심한 일반 소모품

<참고 사항>

​​​​​

  • NVIDIA 프로그램에 가입하면, DGX 시리즈 구매 시 최대 30% 까지 할인이 제공됩니다.

NVIDIA DGX 시리즈 사양 및 가격

NVIDIA가 직접 설계 및 제조한 DGX 시리즈는, GPU, CPU, 메모리, 스토리지(하드디스크), 네트웍 카드 등 모든 부품을 최적화하여 AI R&D 및 프로젝트에서 최고의 성능을 발휘하도록 설계된 AI 전용 GPU 서버입니다.

B300 GPU 8장이 탑재된 NVIDIA DGX B300 GPU 서버 전면 이미지

NVIDIA DGX B300

 

​Blackwell Ultra B300 GPU 8장 탑재, 총 2.1TB GPU 메모리 용량과 초 당 62TB/s에 달하는 GPU 대역폭을 제공합니다.

총 2TB의 시스템 메모리 및 128코어 듀얼 CPU를 탑재, 초 거대 모델 학습 및 추론 서비스에 최적화 되었습니다.​


최신 5세대 NVLink 기술을 통해 GPU 간 대역폭은 초 당 14.4 TB/s까지 최대로 끌어올려 데이터 처리를 가속화 합니다.


FP4 연산 성능은 144PFLOPS, 막강한 추론 속도로 AI 비지니스를 혁신합니다.

B200 GPU 8장이 탑재된 NVIDIA DGX B200 GPU 서버 전면 이미지

NVIDIA DGX B200

Blackwell 아키텍처 기반 B200 GPU 8장 탑재, 총 1,4TB GPU 메모리 용량과 초 당 64TB/s의 GPU 메모리 대역폭을 제공합니다.


총 112 코어 듀얼 CPU와 2TB 시스템 메모리를 탑재, 최신 5세대 NVLink와 NVSwitch 기술을 통해 GPU 간에 총 14.4TB/s의 압도적인 대역폭으로 AI 비지니스를 가속화 합니다.


144 PFLOPS의 FP4 연산 성능을 지원, 초거대 모델의 학습과 실시간 추론 속도를 최대한 끌어올렸습니다.

H200 GPU 8장이 탑재된 NVIDIA DGX H200 GPU 서버 전면 이미지

NVIDIA DGX H200

 

Hopper 아키텍처 기반 H200 GPU 8장 탑재, 총 1.1TB GPU 메모리 용량과 초 당 38.4 TB/s의 GPU 메모리 대역폭을 제공합니다.


총 112 코어 듀얼 CPU 및 2TB 시스템 메모리를 탑재, 최신 4세대 NVLink와 NVSwitch 기술을 통해 초 당 7.2TB/s의 막대한 대역폭을 제공, 학습 및 추론에서 데이터 처리를 가속화합니다.


또한, 32PFLOPS의 FP8 연산 성능을 제공하여, 초 거대 모델 학습과 추론 및 서비스에서 최고의 결과를 보장합니다.

DGX 시리즈에 포함된 AI Enterprise

NVIDIA Base Command: DGX 시스템과 클러스터의 작업 스케줄링, 자원 관리, 모니터링을 담당하는 운영 플랫폼

NVIDIA NeMo: 거대언어모델(LLM) 구축, 학습 및 미세 조정(Fine-tuning)을 위한 엔터프라이즈 프레임워크

NVIDIA TensorRT: AI 모델의 추론 성능을 최적화해주는 고속 추론 엔진으로, 모델의 크기는 줄이면서 속도는 비약적으로 높여줍니다

NVIDIA Triton Inference Server: 다양한 프레임워크(TensorFlow, PyTorch 등) 기반 모델을 실제 서비스에 배포하고 관리하는 표준 서버.

NVIDIA NIM: LLM 및 생성형 AI 모델을 마이크로서비스 형태로 쉽게 배포할 수 있는 플랫폼

NVIDIA RAPIDS: GPU 기반 데이터 분석 및 전처리를 위한 라이브러리 모음

기타 AI 소프트웨어 등

NVIDIA DGX 시리즈에 포함된 AI 소프트웨어 목록의 로봇 배경 이미지
bottom of page