OpenAI·Anthropic·Google, 중국 AI 모델 복제에 공동 대응 — Frontier Model Forum 첫 실전 가동
경쟁 관계인 OpenAI, Anthropic, Google이 이례적으로 손을 잡았다. 중국 AI 기업들이 미국 최첨단 모델의 출력을 대규모로 추출해 자체 모델을 학습시키는 행위에 공동 대응하기로 한 것이다. Bloomberg가 4월 6일 최초 보도했다.
세 기업은 2023년 Microsoft와 함께 설립한 Frontier Model Forum{{frontier-model-forum}}을 통해 위협 정보를 공유하고 있다. 이 포럼은 그동안 주로 정부 대상 안전 서약이나 정책 논의의 장이었는데, 이번에 처음으로 특정 외부 위협에 대한 실전 위협 인텔리전스 운영으로 전환됐다.
구체적으로 이름이 거론된 중국 기업은 DeepSeek, Moonshot AI, MiniMax 세 곳이다. Anthropic에 따르면, 이 세 기업이 약 24,000개의 가짜 계정을 통해 1,600만 건 이상의 비인가 대화를 Claude와 주고받았다. 이렇게 수집한 응답 데이터로 자사 모델을 학습시키는 것을 모델 증류{{model-distillation}}(distillation) 공격이라 부른다. 쉽게 말해, 선생님(원본 모델)에게 수백만 번 질문하고, 그 답변으로 학생(복제 모델)을 훈련시키는 방식이다.
대응 방식은 사이버보안 업계의 위협 인텔리전스 공유 모델을 차용했다. 한 회사에서 비정상 트래픽 패턴(대량 조직적 쿼리, 반복적 프롬프트 패턴, 봇 위장 등)을 탐지하면, 그 패턴을 다른 회사들에게 즉시 공유한다. 또한 Anthropic은 아직 미출시인 Mythos 모델의 사이버보안 특화 프리뷰 버전을 연합 파트너에게 제공해, 제로데이 공격이나 취약점을 사전 탐지하는 데 활용하고 있다.
이 사건의 배경에는 미·중 AI 경쟁의 심화가 있다. DeepSeek이 올해 초 저비용 모델로 주목받은 뒤, 미국 기업들은 자사 API가 사실상 경쟁사의 학습 데이터 소스로 악용되고 있다는 점을 점점 더 심각하게 인식하게 됐다.
한국 기업과 개발자들에게도 시사점이 있다. 글로벌 AI 기업들이 API 이용약관 위반에 대해 더 강경하게 대응하고 있다는 것은, API를 대규모로 활용하는 한국 스타트업이나 서비스도 이용 패턴에 대한 모니터링이 강화될 수 있음을 의미한다.
📎 출처 및 참고 자료
- OpenAI, Anthropic, Google Unite to Combat Model Copying in China — Bloomberg, 2026-04-06
- OpenAI, Anthropic and Google team up against unauthorized Chinese model copying — The Decoder, 2026-04-07
- OpenAI, Anthropic, Google Team Up to Stop Chinese AI Model Distillation — Winbuzzer, 2026-04-08
- OpenAI drama and Anthropic cybersecurity risks — Fortune, 2026-04-07
🔗 함께 보면 좋은 글
- Broadcom And Google Benefit Mightily From Anthropic’s Meteoric Growth — Anthropic의 연 300억 달러 매출과 인프라 파트너십 배경
- OpenAI IPO와 사업 리스크 — 모델 보안이 기업 가치에 미치는 영향