Google DeepMindが2026年4月2日、オープンソースのモデルファミリー「Gemma 4」を公開しました。2B・4B・26B・31Bの4サイズが揃い、Gemmaシリーズとして初めてOSI承認のApache 2.0ライセンスが採用されています。従来のGemmaライセンスは商用利用に制限があったため、今回のApache 2.0採用はコミュニティから「ライセンス変更そのものがベンチマーク結果以上に重要な前進」(VentureBeat)と評価されています。
Google Open Source Blogによると、Gemma 4は大型モデル(26B・31B)と小型エッジモデル(2B・4B)の2ティア構成になっています。大型モデルはテキストと画像入力をサポートし、256Kトークンのコンテキストウィンドウ(文脈として一度に処理できるテキスト量)を持ちます。エッジモデルはスマートフォンや組み込みデバイス向けで128Kトークンに対応し、テキスト・画像・音声のマルチモーダル入力が可能です。31Bの大型モデルはArena.aiのリーダーボードで3位にランクインしており、「自分より4〜10倍大きいモデルと競合できる」(Hacker News)という驚きの声が上がっています。
Redditのr/LocalLLaMAではApache 2.0での公開が大きな歓迎を受けた一方、HuggingFace Transformersとの互換性問題やジェイルブレイクの脆弱性報告も相次いでいます。Hacker Newsでは「OSSコミュニティがこのモデルで本当に何ができるか試す価値がある」という声が多く、個人・スタートアップの活用期待が高まっています。
Apache 2.0ライセンスにより、Gemma 4はファインチューニングや商用製品への組み込みが事実上制限なく行えるようになります。エッジモデルの音声対応も加わり、オフライン動作が求められる産業・医療・教育分野での活用が広がると期待されます。競合するMeta LlamaやMistralに対するGoogleの本格的なOSSコミュニティ獲得への意欲が垣間見える今回のリリースは、2026年のオープンソースAI競争をさらに激しくするものとなりそうです。