
A100 Tensor Core GPU
AI, HPC, 데이터 분석을 위한 검증된 범용 데이터센터 GPU
A100 SXM: 80GB HBM2e | 2TB/s 대역폭 | 400W TDP
A100 PCIe: 80GB HBM2e | 2TB/s 대역폭 | 300W TDP
기술 사양
H100 SXM
A100 PCIe
FP64
9.7 TFLOPS
9.7 TFLOPS
FP64 Tensor 코어
19.5 TFLOPS
19.5 TFLOPS
FP32
19.5 TFLOPS
19.5 TFLOPS
TF32 Tensor 코어*
156 TFLOPS
156 TFLOPS
BFLOAT16 Tensor 코어*
312 TFLOPS
312 TFLOPS
FP16 Tensor 코어*
312 TFLOPS
312 TFLOPS
INT8 Tensor 코어*
624 TOPS
624 TOPS
GPU 메모리
80GB HBM2e
80GB HBM2e
GPU 메모리 대역폭
2,039 GB/s
1,935 GB/s
디코더
5 NVDEC / 0 NVENC
5 NVDEC / 0 NVENC
최대 TDP
400W
300W
MIG
최대 7개 인스턴스
최대 7개 인스턴스
폼 팩터
SXM4
PCIe 듀얼 슬롯
인터커넥트
NVLink 600GB/s
PCIe Gen4 64GB/s
PCIe Gen4 64GB/s
-
A100 Tensor Core GPU 기반
최적의 인프라 구성을 간편하게 확인해 보세요.

1.0
서버 호환성 체크
Dell PowerEdge, HP ProLiant, Lenovo ThinkSystem 등 주요 서버 플랫폼과의 물리적 장착 및 ISV 인증 여부 확인
2.0
멀티 GPU 시뮬레이션
단일 시스템 내 다중 GPU 구성 시의 연산 성능과 작업 효율을 기반으로 워크로드별 최적의 확장 환경 예측
3.0
구매 옵션 최적화
전문가용 단품 도입부터 엔터프라이즈급 완제 시스템 패키지까지, 비즈니스 규모에 맞춘 최적의 도입 경로 제안


