고대역폭 메모리

aka High Bandwidth Memory (HBM)

GPU와 수직으로 적층하여 초고속 데이터 전송을 지원하는 차세대 메모리 반도체

HBM은 여러 겹의 D램 다이를 수직으로 쌓아 TSV(관통 실리콘 비아)로 연결한 메모리다. 기존 GDDR 메모리 대비 훨씬 넓은 대역폭을 제공하여, AI 학습과 추론에 필수적인 부품이 되었다. NVIDIA의 H100, H200, B200 등 AI 가속기에 탑재되며, SK하이닉스와 삼성전자가 주요 공급업체다. 2026년 기준 AI 데이터센터의 HBM 수요 급증으로 D램 웨이퍼 용량의 약 20%가 HBM에 배분되고 있다.

관련 용어

2

언급된 포스트

7