AI 데이터센터

aka AI Data Center

GPU·TPU·NPU 기반 AI 학습·추론 워크로드를 전용으로 처리하기 위해 설계된 대규모 전산 인프라 시설

일반 데이터센터 대비 단위 면적당 전력 밀도(20~150kW/rack)와 냉각 요구가 훨씬 높고, 액침·후면 도어 냉각 같은 고밀도 냉각 솔루션을 채택한다. 보통 100MW~수 GW 규모 전력을 한 단지에서 소비하므로 송전망·전력원 확보가 입지 결정의 핵심 변수다. AWS·Azure·Google·Oracle 같은 하이퍼스케일러뿐 아니라 SK·NHN·KT 등 한국 통신·에너지 기업도 자체 단지를 구축하는 흐름이다.

관련 용어

2

언급된 포스트

1