Google Gemma 4 공개 — 31B 모델이 400B급을 이기는 오픈소스의 새 기준

Google Gemma 4 공개 — 31B 모델이 400B급을 이기는 오픈소스의 새 기준

Google DeepMind가 Gemma 4를 공개했다. 파라미터 대비 성능 효율이 압도적이다. 31B(310억) 파라미터 모델이 다른 회사의 400B급 모델을 벤치마크에서 앞서는 결과를 보여준다.

4가지 크기, 하나의 철학

Gemma 4는 네 가지 크기로 출시됐다. Effective 2B(E2B), Effective 4B(E4B), 26B Mixture of Experts(MoE), 그리고 31B Dense. “파라미터당 최고 수준의 지능”을 목표로 설계됐다.

Google 공식 블로그에 따르면, 모든 모델이 이미지와 비디오를 네이티브로 처리하며, 가변 해상도를 지원한다. E2B와 E4B 모델은 음성 입력까지 지원해 온디바이스 음성 인식이 가능하다. 소형 모델은 128K, 대형 모델은 256K 컨텍스트 윈도우를 제공한다.

Apache 2.0 — 진짜 오픈소스

이전 Gemma 버전은 커스텀 라이선스를 사용해서 “오픈소스라고 부르기 애매하다”는 지적이 있었다. Gemma 4는 Apache 2.0 라이선스로 전환했다. 상업적 사용, 수정, 재배포에 제한이 없다.

이 타이밍이 흥미롭다. Meta가 Muse Spark로 독점 전략으로 돌아선 바로 그 시점에, Google은 오히려 라이선스를 더 열었다. 오픈소스 AI 생태계의 주도권이 Google 쪽으로 이동하는 신호로 읽힌다.

성능 — 작은 것이 큰 것을 이기다

Arena AI 텍스트 리더보드에서 31B Dense 모델은 오픈 모델 중 3위, 26B MoE 모델은 6위를 기록했다. 코딩, 에이전틱 AI, 추론 능력이 특히 강화됐다.

Hugging Face 블로그에 따르면, Gemma 4는 출시 직후 커뮤니티에서 폭발적인 반응을 얻고 있다. 온디바이스 실행이 가능한 크기에서 이 정도 성능을 낸다는 점이 개발자들에게 특히 매력적이다.

한국 독자에게 어떤 의미가 있나

Apache 2.0 라이선스와 소형 모델 라인업은 국내 스타트업과 개발자에게 실질적 기회다. 특히 E2B, E4B 모델은 모바일·엣지 환경에서 한국어 AI 서비스를 구축하려는 팀에게 유용할 수 있다. Llama 기반에서 Gemma로의 전환을 고려해볼 만한 시점이다.


📎 출처 및 참고 자료

🔗 함께 보면 좋은 글

해시태그
GoogleGemma 4오픈소스Apache 2.0DeepMind멀티모달