GPU 아키텍처 라인업

연구에 최적화된 NVDIA 아키텍처를 제공합니다

BlackWell

RTX PRO 6000 Workstation Edition

96GB GDDR7

4000 AI TOPS

LLM 파인튜닝과 초대규모 렌더링을 위한 최고 성능

BlackWell

RTX PRO 6000 Max-Q

96GB GDDR7

3511 AI TOPS

멀티 GPU 확장 가능, 대규모 AI 개발과 시뮬레이션

BlackWell

RTX PRO 6000 Server Edition

96GB GDDR7

4 PFLOPS (FP4)

데이터 센터 최적화, 멀티모달 AI 추론과 엔터프라이즈 렌더링

BlackWell

RTX PRO 5000

48GB / 72GB GDDR7

2064 AI TOPS

MIG 지원으로 멀티 워크로드 동시 실행 가능

BlackWell

RTX PRO 4500

32GB GDDR7

896GB/s 대역폭

Generative AI와 실시간 물리 시뮬레이션

BlackWell

RTX PRO 4000

24GB GDDR7

싱글 슬롯 설계

컴팩트한 폼팩터에서 강력한 AI 워크로드 실행

Hopper

H200 Tensor Core GPU

141GB HBM3e

3958 teraFLOPS (FP8)

초대규모 LLM과 HPC 워크로드를 위한 최고 성능, 4.8TB/s 메모리 대역폭

Hopper

H100 Tensor Core GPU

80GB HBM3

3958 teraFLOPS (FP8)

GPT-3급 초대규모 모델 학습, 데이터센터 AI 가속의 표준

Ada Lovelace

RTX 6000 Ada Generation

48GB GDDR6

1457 TFLOPS (FP8)

하이엔드 설계, 렌더링, AI 연구를 위한 범용 성능

Ada Lovelace

RTX 5000 Ada Generation

32GB GDDR6

568 Tensor TFLOPS

대규모 3D 렌더링과 AI 모델 개발을 위한 전문가급 성능

Ada Lovelace

RTX 4000 Ada Generation

20GB GDDR6

싱글 슬롯 설계

CAD/BIM 설계와 AI 추론을 위한 컴팩트한 고성능

Ada Lovelace

RTX 2000 Ada Generation

16GB GDDR6

듀얼 슬롯 컴팩트

콘텐츠 제작, 설계, AI 기반 데이터 분석 업무

Ada Lovelace

L40S

48GB GDDR6

패시브 쿨링 설계

Generative AI부터 렌더링까지 범용 데이터센터 GPU

Ampere

RTX A6000

48GB GDDR6

NVLink 지원

대규모 렌더링과 AI 그래픽 연구를 위한 GPU

Ampere

RTX A5000

24GB GDDR6

싱글 슬롯 설계

전문 그래픽과 중급 AI 워크로드를 위한 검증된 성능

Ampere

A100 Tensor Core GPU

80GB HBM2e

MIG 7인스턴스 지원

AI, HPC, 데이터 분석을 위한 검증된 범용 플랫폼

GPU 아키텍처 라인업을 한눈에 비교해보세요

대표 모델

출시 연도

메모리

AI 성능

Tensor Core

주요 강점

Blackwell

RTX PRO 6000 Workstation

2025

96GB GDDR7

4000 AI TOPS

5세대

최신 LLM 최적화

Hopper

H100

2022

80GB HBM3

3958 teraFLOPS

4세대

대규모 모델 학습

Ada Lovelace

RTX 6000 Ada

2022

48GB GDDR6

1457 TFLOPS (FP8)

4세대

범용 AI + 그래픽

Ampere

A100

80GB HBM2e

624 TOPS (INT8)

내용물

3세대

검증된 안정성

어떤 GPU 아키텍처가

연구에 적합할지 고민되시나요?

주소 : 서울특별시 성동구 성수일로 89 메타모르포 501, 505호 엑스디노드
통신판매 신고번호 : 2024-서울송파-3420 | 사업자등록번호 : 393-86-02729
전화번호 : 02-6671-9000

Copyright ⓒ 2026 (주)엑스디노드 XD NODE All rights reserved.