Googleが4月2日、オープンモデルシリーズの最新版「Gemma 4」をApache 2.0ライセンスで公開しました。2B・4B・26B MoE(Mixture of Experts)・31Bの4バリアントで構成され、256,000トークンのコンテキストウィンドウ、ネイティブのビジョン・音声処理、140言語以上のサポートを実現しています。特に31Bモデルは公開初週のHugging Faceダウンロード数が過去のGemmaシリーズをすべて超え、エッジ端末からクラウドまで幅広い展開シナリオへの対応力が評価されています。
Gemma 4の最大の注目点は、31Bという比較的小さなパラメータ数でありながら、はるかに大型のモデルと競合する性能を示している点です。MoEアーキテクチャの採用により、推論時にアクティブになるパラメータは全体の一部に留まるため、実際の計算コストは見た目のパラメータ数より小さくなります。256Kトークンのコンテキストウィンドウは、長大なコードベースや文書の一括処理を可能にし、エンタープライズユースケースでの実用性を大幅に高めています。2Bモデルはエッジデバイスやモバイル端末での軽量推論を想定した設計です。
X上では「400Bクラスのモデルに匹敵する31Bモデルが無料公開された」という驚きの声がAIエンジニアの間で広く拡散しました。Redditのr/LocalLLaMAでは各バリアントのベンチマーク比較スレッドが急増し、2Bモデルをエッジデバイスで動作させた実験報告が多数投稿されています。Hacker Newsでは「GoogleのオープンモデルはMeta Llamaへの対抗というより、開発者エコシステム獲得を主目的としている」という分析が上位にランクインしました。
Gemma 4のリリースは、ApacheライセンスによるOSSコミュニティへの積極的な投資というGoogleの戦略を改めて示しています。商用利用が自由なApache 2.0ライセンスにより、スタートアップや個人開発者も自社プロダクトへの組み込みが容易です。Meta Llamaシリーズとの競合という構図はあるものの、Googleならではの140言語対応や音声・ビジョンのネイティブ統合は差別化要因となっています。エッジからクラウドまでの一貫したモデルファミリーにより、Googleのクラウドインフラやデバイス製品との統合ユースケースが今後さらに広がることが予想されます。