|
HBM (High Bandwidth Memory): 고대역폭 메모리
기존 GDDR 메모리보다 훨씬 높은 대역폭을 제공하면서도 더 적은 공간, 낮은 전력으로 작동
TSV(Through-Silicon Via) 기술을 사용해 3D로 쌓은 DRAM을 통해 성능 극대화
HBM, HBM2, HBM2E, HBM3 등의 버전이 있음
💻 NVIDIA와 HBM
NVIDIA는 주로 AI/데이터센터용 GPU에서 HBM을 사용합니다.
주요 HBM 기반 NVIDIA GPU 제품:
GPU HBM 버전 사용 용도 특징
Tesla P100 | HBM2 | HPC, AI | NVIDIA 최초의 HBM2 탑재 |
Tesla V100 | HBM2 | AI, HPC | Volta 아키텍처 |
A100 | HBM2e | AI 트레이닝/추론 | Ampere 아키텍처 |
H100 | HBM3 | 최신 AI 가속기 | Hopper 아키텍처, GPT 모델 학습용 |
B100 (예정) | HBM3e | 차세대 | 2024~2025 예상 출시 |
HBM은 게이밍 GPU (예: RTX 시리즈)에는 거의 사용되지 않음. 이유는 비용과 발열, 제조 복잡도 때문.
AI, 머신러닝, 고성능 컴퓨팅 등에서 요구되는 대역폭과 전력 효율 때문에 채택됨.
🔋 왜 HBM이 중요한가요?
AI 모델 크기와 연산량 증가 → 대역폭 병목 문제 발생
HBM은 메모리 병목을 줄이고 초당 수 TB의 대역폭을 제공해 대규모 AI 학습에 필수
GPT, LLM, 자연어 처리, 자율주행 학습 등에 사용되는 서버용 GPU는 대부분 HBM 채택
원하시면 HBM3 vs GDDR6X 비교도 해드릴 수 있습니다. NVIDIA의 H100이나 B100 아키텍처 구조도 시각적으로 보여드릴 수 있어요.
어떤 쪽이 궁금하신가요?