HBM은 여러 겹의 D램 다이를 수직으로 쌓아 TSV(관통 실리콘 비아)로 연결한 메모리다. 기존 GDDR 메모리 대비 훨씬 넓은 대역폭을 제공하여, AI 학습과 추론에 필수적인 부품이 되었다. NVIDIA의 H100, H200, B200 등 AI 가속기에 탑재되며, SK하이닉스와 삼성전자가 주요 공급업체다. 2026년 기준 AI 데이터센터의 HBM 수요 급증으로 D램 웨이퍼 용량의 약 20%가 HBM에 배분되고 있다.
고대역폭 메모리
aka High Bandwidth Memory (HBM)
GPU와 수직으로 적층하여 초고속 데이터 전송을 지원하는 차세대 메모리 반도체
관련 용어
2언급된 포스트
7- SK하이닉스, 1분기 매출 52조원 돌파: AI 메모리 수요가 만든 역대 최고 실적 2026-04-24
- 삼성전자 평택서 3만명 결의대회: HBM 경쟁 한복판, 성과급 격차가 불씨 2026-04-24
- SK하이닉스, 192GB SOCAMM2 세계 최초 양산 — 엔비디아 '베라 루빈' 겨냥한 AI 메모리 새 기준 2026-04-21
- 인텔, 삼성 파운드리 30년 베테랑 영입 — '고객 확보' 전면전 본격화 2026-04-18
- 최태원 SK회장, NVIDIA GTC 2026 방문 - 메모리·AI 인프라 파트너십 재확인 2026-04-16
- AI 칩 쟁탈전의 나비효과 — 스마트폰, PC 가격 최대 20% 오른다 2026-04-13
- AI 반도체 쟁탈전에 D램 가격 3개월 새 4배 폭등 — 한국 반도체 기업의 명암 2026-04-11