Mira Murati의 Thinking Machines Lab, Google Cloud와 수십억 달러 계약
OpenAI 전 CTO Mira Murati가 이끄는 Thinking Machines Lab{{thinking-machines-lab}}이 Google Cloud와 수십억 달러 규모의 AI 인프라 계약에 서명했다. 이 계약에서 주목할 점은 인프라 구성이다. Google이 만든 TPU가 아니라 Nvidia GB300을 Google Cloud 안에서 돌리는 형태다.
TechCrunch의 단독 보도에 따르면 이번 계약은 Google Cloud Next 2026 기간(4월 22일) 중 공개됐다. 이 뉴스는 현재 TechCrunch 단독 보도가 유일한 출처로 확인되며, 추가 독립 보도로 보완될 때까지는 보수적으로 해석하는 것이 안전하다.
무슨 의미인가
Thinking Machines Lab은 Mira Murati가 OpenAI를 떠나 설립한 프론티어 모델{{frontier-model}} 스타트업으로, 2026년 초 대규모 시드 라운드를 마쳤다. 이번 계약은 이 회사가 장기 학습용 컴퓨트를 어디에서 확보할지 결정한 첫 공개 사인이다. OpenAI가 Azure, Anthropic이 Google Cloud+AWS, xAI가 자체 데이터센터를 선택한 상황에서, Thinking Machines는 “Google Cloud 위에 Nvidia GPU”라는 하이브리드를 택했다.
이는 Google Cloud 관점에서도 의미가 있다. 같은 날 Google은 자사 TPU v8(Sunfish·Zebrafish)을 공개하면서 Anthropic을 앵커 고객으로 묶었다. 그와 별개로, TPU가 아닌 Nvidia GPU 고객도 Google Cloud에 유치했다는 것은 “Google Cloud는 TPU든 Nvidia든 모두 커버한다”는 메시지를 강화한다.
긍정 관점
TechCrunch는 “Mira Murati의 팀은 컴퓨트 확보가 곧 모델 경쟁력인 단계에서, TPU 단일 의존이 아닌 Nvidia 스택과의 호환을 유지하는 선택을 했다”고 분석했다. 스타트업 입장에서는 연구자 채용과 프레임워크 호환성이라는 면에서 Nvidia CUDA 생태계의 강점을 포기하기 어렵다. 동시에 Google Cloud 인프라의 네트워킹·스토리지 자산은 쓸 수 있기 때문에, “베스트 오브 보스” 접근이라고 볼 수 있다.
우려 지점
반면 계약 규모(수십억 달러)에 비해 Thinking Machines Lab은 아직 정식 모델을 공개한 적이 없다. 즉 제품 매출 없이 대규모 컴퓨트 비용부터 확정되는 구조다. 시드 투자자들의 인내심이 얼마까지 유지될지, 그리고 Nvidia GB300 공급 자체가 2026년 하반기까지 타이트한 상황에서 실제 용량이 언제 온라인되는지가 관전 포인트다. 또한 출처가 단일 매체(단독 보도)이므로 계약 금액·기간·용량 세부 수치는 추가 확인이 필요하다.
지켜볼 지점
단기로는 Thinking Machines Lab의 첫 모델 공개 시점과 성능 벤치마크가 가장 큰 체크포인트다. 중기로는 이 계약이 Google Cloud의 “Nvidia + TPU 듀얼 공급자” 포지셔닝이 실제 대형 고객 유치로 이어지는지 가늠하는 시험대가 될 수 있다. 이 기사는 단일 출처 기반이라 일부 세부 정보는 추가 확인이 필요하다.
출처 및 참고 자료
- Exclusive: Google deepens Thinking Machines Lab ties with new multibillion-dollar deal — TechCrunch, 2026-04-22
함께 보면 좋은 글
- Google debuts AI chips with 4X performance boost — 같은 주 Google 인프라 전략 흐름