H100 Tensor Core GPU
대규모 언어모델(LLM) 훈련과 추론에 최적화된 데이터센터 GPU
H100 SXM: 80GB HBM3 | 3,958 TFLOPS | 700W TDP
H100 NVL: 94GB HBM3 | 3,341 TFLOPS | 400W TDP

기술 사양
H100 SXM
H100 NVL
FP64
34 TFLOPS
30 TFLOPS
FP64 Tensor 코어
67 TFLOPS
60 TFLOPS
FP32
67 TFLOPS
60 TFLOPS
TF32 Tensor 코어*
989 TFLOPS
835 TFLOPS
BFLOAT16 Tensor 코어*
1,979 TFLOPS
1,671 TFLOPS
FP16 Tensor 코어*
1,979 TFLOPS
1,671 TFLOPS
FP8 Tensor 코어*
3,958 TFLOPS
3,341 TFLOPS
INT8 Tensor 코어*
3,958 TOPS
3,341 TOPS
GPU 메모리
80GB HBM3
94GB HBM3
GPU 메모리 대역폭
3.35TB/s
3.9TB/s
디코더
7 NVDEC / 7 JPEG
7 NVDEC / 7 JPEG
최대 TDP
최대 700W
350-400W
MIG
최대 7개 (각 10GB)
최대 7개 (각 12GB)
폼 팩터
SXM
PCIe 듀얼 슬롯 (공랭식)
인터커넥트
NVLink 900GB/s
NVLink 600GB/s
PCIe Gen5 128GB/s
PCIe Gen5 128GB/s
H100 Tensor Core GPU 기반
최적의 인프라 구성을 간편하게 확인해 보세요.

1.0
서버 호환성 체크
Dell PowerEdge, HP ProLiant, Lenovo ThinkSystem 등 주요 서버 플랫폼과의 물리적 장착 및 ISV 인증 여부 확인
2.0
멀티 GPU 시뮬레이션
단일 시스템 내 다중 GPU 구성 시의 연산 성능과 작업 효율을 기반으로 워크로드별 최적의 확장 환경 예측
3.0
구매 옵션 최적화
전문가용 단품 도입부터 엔터프라이즈급 완제 시스템 패키지까지, 비즈니스 규모에 맞춘 최적의 도입 경로 제안


