구글, ‘추론 전용 칩’으로 엔비디아 정면 도전 — 마벨·브로드컴·MediaTek·TSMC 4파트너 체제 완성
Bloomberg이 2026년 4월 20일, 구글이 AI 추론{{inference}} 전용 신규 칩 라인을 도입해 엔비디아의 GPU 독주에 정면 도전할 계획임을 보도했다. 핵심은 두 가지다. 첫째, 구글은 기존 TPU{{tensor-processing-unit}}의 학습·범용 역할 위에 “추론에만 특화된” 칩 카테고리를 새로 얹는다. 둘째, 이를 구현하기 위해 Broadcom·MediaTek·Marvell·TSMC 네 파트너와 자체 설계 팀을 묶은 4축 파운드리{{foundry}} 체제를 완성했다.
추론 시장이 왜 이제 주전장이 되었나
2025년까지 AI 칩{{ai-chip}} 경쟁의 메인 무대는 “학습(training)“이었다. 새 모델을 빨리, 크게 만드는 쪽이 유리했고 엔비디아의 H100·B200 시리즈가 이 시장을 거의 독식했다. 그러나 2026년에 들어 판세가 바뀌고 있다. 모델은 이미 충분히 크고, 기업들은 같은 모델을 수억 명에게 싸게 서빙하는 “추론” 비용을 낮추는 데 승부를 걸고 있다. 추론은 학습과 부하 특성이 다르다. 지연이 짧아야 하고, 요청이 고르지 않고, 에너지 효율이 단가에 직결된다.
이 영역에서 엔비디아의 범용 GPU는 “기능은 다 되지만 추론 단가가 비싸다”는 평을 받아 왔다. 구글은 이 틈을 정조준한다.
4파트너 체제의 역할 분담
Bloomberg과 The Next Web 보도를 종합하면 구글의 하드웨어 생태계는 다음과 같이 짜여 있다.
| 파트너 | 주요 역할 |
|---|---|
| Broadcom | 기존 TPU 시리즈 공동 설계·패키징. 구글과의 10년 가까운 최대 협업 |
| Marvell | 이번에 합류. 메모리 프로세싱 유닛(MPU)과 차세대 추론 전용 TPU 2종 공동 설계 |
| MediaTek | 일부 TPU 제품군 공동 설계 파트너로 합류 |
| TSMC | 전 제품 위탁 생산 |
| 구글 자체 설계 팀 | 아키텍처·소프트웨어 스택(JAX·XLA·Pathways) 통합 |
자료: Bloomberg(2026-04-20), The Next Web(2026-04-20). 각 파트너의 세부 지분·매출 분담 조건은 비공개
기존에는 Broadcom-TSMC가 거의 단일 축이었다면, 이번에는 추론 단에서 Marvell·MediaTek이 병렬로 투입된다. 단일 공급선에 걸리는 생산·협상 리스크를 낮추면서 엔비디아가 TSMC에 의존하고 있는 부분을 같은 파운드리에서 다각도로 압박하는 구도다.
이미 증명된 시장 수요 — Meta·앤트로픽 구매
구글 TPU의 외부 고객군은 이미 가시화돼 있다. 2026년 2월 Meta는 구글과 수십억 달러 규모 다년 계약을 맺고 TPU 기반 AI 인프라에 대거 접근하기 시작했다. 4월 7일에는 앤트로픽이 구글·브로드컴과 별도 TPU 계약을 확장한다고 밝혔고, 이번 달 아마존의 앤트로픽 추가 투자 보도와 맞물려 “프런티어 모델 개발사들이 엔비디아 외 옵션을 확보하는 것이 2026년의 표준이 되고 있다”는 관측이 퍼지고 있다.
우호적 시각 — “다중 공급선이 가능해진다”
BusinessToday가 인용한 반도체 업계 분석가들은, 구글의 추론 전용 칩이 기존 TPU의 장점(메모리 대역폭, 커스텀 인터커넥트)을 추론 쪽에 맞춰 재설계한 결과라면, 단가 측면에서 엔비디아 대비 2~4배 유리할 여지가 있다고 본다. Bloomberg도 “커스텀 AI 칩 매출은 2026년 45% 성장, 시장 자체는 2033년 1,180억 달러에 이를 것”이라는 추정치를 인용했다. (기관명·방법론은 공개되지 않아 본문에서도 “예상”으로만 다루는 것이 안전하다.)
다양한 공급선이 열리면, 클라우드 업체·AI 스타트업이 “엔비디아만 바라보는” 구조에서 벗어나 협상력을 회복할 수 있다는 점이 구글 전략의 우호적 해석의 핵심이다.
비판적 관점 — 소프트웨어 락인이라는 벽
반면 회의적 시각도 존재한다. SemiAnalysis 등 반도체 전문 리서치 매체는 오래전부터 “CUDA 소프트웨어 생태계가 엔비디아의 진짜 해자”라고 지적해 왔다. TPU가 하드웨어 성능 대비 단가에서 이긴다 해도, 개발자가 익숙한 CUDA 기반 코드베이스를 TPU용 JAX/XLA 스택으로 옮기는 마이그레이션 비용과 디버깅 부담은 만만치 않다. 특히 규모가 작은 연구팀일수록 이 전환 장벽이 크다.
또한 “추론 전용 칩”이라는 카테고리 자체가 엔비디아의 B200·GB200 이후 세대 GPU가 이미 추론 효율을 크게 끌어올린 것과 겹친다. 벤치마크 결과가 나오기 전까지는 구글 신칩의 TCO(총소유비용) 우위가 수치로 증명됐다고 말하기 어렵다.
앞으로 지켜볼 지점
- 구글이 발표할 신규 추론 칩의 공식 제품명과 구체적 성능 지표(토큰/초당 와트, 단위 토큰당 비용)
- Meta·앤트로픽 외에 추가로 드러날 대형 외부 고객 — 특히 마이크로소프트의 입장 변화
- 엔비디아의 B300·루빈(Rubin) 세대 대응, 그리고 자체 추론 최적화 소프트웨어 스택 업데이트 속도
이번 보도의 핵심은 “엔비디아의 아성이 무너졌다”가 아니라, “AI 칩 시장이 학습-추론 두 단으로 쪼개지면서 경쟁 구도가 재설계되고 있다”는 쪽에 가깝다. 앞으로 몇 분기 동안 발표될 벤치마크와 공급 계약이 이 전환의 속도를 결정할 것이다.
출처 및 참고 자료
- Google Eyes New Chips to Speed Up AI Results, Challenging Nvidia — Bloomberg, 2026-04-20
- How Google is quietly planning to take on Nvidia — BusinessToday, 2026-04-20
- Google in talks with Marvell Technology to build new AI inference chips alongside Broadcom TPU programme — The Next Web, 2026-04-20
함께 보면 좋은 글
- Google Cloud AI infrastructure at NVIDIA GTC 2026 — 구글이 엔비디아 GTC에서도 협력·경쟁을 병행 중인 공식 블로그 기록
- Google TPUv7: The 900lb Gorilla In the Room — TPU v7 아이언우드 세대 기술 사양 심층 분석