OpenAI·Anthropic·Google, 중국 AI 모델 복제에 공동 대응 나서다
평소 치열하게 경쟁하는 OpenAI, Anthropic, Google이 손을 잡았다. 공동의 적은 중국 AI 기업들의 무단 모델 복제다. Bloomberg 보도에 따르면, 세 회사는 2023년 Microsoft와 함께 설립한 비영리 단체 Frontier Model Forum{{frontier-model-forum}}을 통해 정보를 공유하며 대응에 나섰다.
문제의 핵심은 ‘적대적 증류(adversarial distillation)‘라는 기법이다. 증류{{model-distillation}}(distillation)는 큰 AI 모델(“선생님”)의 출력을 이용해 작은 모델(“학생”)을 훈련하는 기술인데, 이를 무단으로 하면 원본 모델의 핵심 능력을 훨씬 적은 비용으로 복제할 수 있다. 미국 관계자들은 이로 인해 미국 AI 기업들이 연간 수십억 달러의 손해를 보고 있다고 추정한다.
규모가 상당하다. Anthropic 한 곳에서만 중국 기업 3곳(DeepSeek, Moonshot AI, MiniMax)이 약 24,000개의 위조 계정을 통해 1,600만 건 이상의 API 호출을 한 것으로 파악됐다. 이 세 회사 외에도 비슷한 시도를 하는 곳이 더 있을 것으로 보인다.
보안 측면에서도 우려가 크다. The Decoder는 증류 과정에서 원본 모델에 적용된 안전 필터, 즉 정렬(alignment) 훈련이나 유해 콘텐츠 거부 훈련 같은 것들이 제대로 복제되지 않는다는 점을 지적했다. 쉽게 말해, 능력은 복사하면서 안전장치는 빠지는 셈이다. 이는 단순한 지적재산권 문제를 넘어 AI 안전 문제로 이어질 수 있다.
세 회사가 경쟁을 잠시 내려놓고 협력한다는 것 자체가 이 문제의 심각성을 보여준다. 한국 AI 스타트업들도 이 사안을 주시할 필요가 있다. 글로벌 AI 서비스를 사용해 모델을 개발하는 경우, 이용약관 변화나 API 접근 정책 강화가 간접적으로 영향을 줄 수 있기 때문이다.