← 2026-04-12
Open Source Community 2026-04-12 Source →

GoogleがGemma 4をApache 2.0で完全公開 — 31Bモデルが世界3位、AIME数学で89.2%を達成

Google DeepMindは4月2日、オープンソースモデルファミリー「Gemma 4」をリリースしました。今回最大の変化は、これまでの独自ライセンスからApache 2.0への完全移行です。商用利用・改変・再配布を無制限に認めるこのライセンス転換とともに、31Bパラメータのモデルが世界AIアリーナランキングで3位に輝き、400Bを超えるモデルに匹敵する性能を小さなサイズで実現してみせました。

Apache 2.0転換が「ゲームチェンジャー」と評される理由

これまでのGemmaシリーズには商用利用に制限を設ける独自ライセンスが付いており、企業での活用には慎重な法的確認が必要でした。Gemma 4でのApache 2.0への変更により、ユーザーはモデルを自由に製品へ組み込み・改変し、商業展開することが可能となります。Google Open Source Blogによると、Gemma 4は「2B(E2B)、4B(E4B)、26B MoE、31B Dense」の4モデル構成で、用途に応じた選択が可能です。

性能面でも話題をさらいました。31B Denseモデルは数学コンテスト向けベンチマーク「AIME 2026」で89.2%を達成しており、Llama 4の88.3%や他の400B超モデルと肩を並べる水準です。LiveCodeBench v6では80.0%、科学推論ベンチマークGPQA Diamondでは84.3%を記録。AIアリーナの総合テキストランキングで31Bが世界3位、26B MoEが6位にランクインしています。

Hugging FaceのCTO Julien Chaumond氏が「Google is back in the game(Googleが復活した)」とXに投稿したことが大きな反響を呼び、数百件のリポストが相次ぎました。ローカルLLMコミュニティ「r/LocalLLaMA」では「31Bが400B超えの性能に驚嘆」という声と、Apache 2.0転換を「ゲームチェンジャー」と歓迎するコメントが多数寄せられています。Hacker Newsでも、前バージョンの商用制限を批判していたユーザーが喜びの声を上げる一方、「なぜ今さら」という疑問の声も混じっています。

リリース後数時間でOllama・vLLMに対応

Gemma 4の迅速な対応も特筆に値します。リリース後わずか数時間でOllamaおよびvLLMへの統合が完了し、手元のマシンやクラウドで即座に動かせる環境が整いました。開発者がモデルを試すまでの障壁が極めて低く、コミュニティでの実験・改良が加速することが期待されます。

Gemini 3.1 UltraやClaude Mythos、GPT-5.4といったクローズドモデルが性能競争を牽引するなか、Gemma 4はオープンソース陣営に強力な1枚を加えました。商用利用の自由、高い性能、迅速なエコシステム対応という三拍子が揃った今回のリリースが、企業やスタートアップのAI活用の選択肢をどう広げるか、今後の活用事例が注目されます。

関連リンク