Google DeepMindが2026年4月2日、オープンソースモデルシリーズ「Gemma 4」をApache 2.0ライセンスで公開しました。エッジデバイス向けの「E2B」「E4B」から、ワークステーション向けの「26B MoE」「31B Dense」まで4サイズを展開し、テキスト・画像・音声のマルチモーダル処理にネイティブ対応しています。旗艦モデルの31Bは業界標準のArena AIテキストリーダーボードで世界3位にランクインしており、Googleがオープンソース路線に本格的に力を入れていることを示しています。
Google公式ブログによると、今回のGemma 4は用途に応じた4モデル体制です。エッジ層のE2B(実効約23億パラメータ)とE4B(同45億)は、スマートフォン・組み込みデバイス・ラップトップへの搭載を念頭に設計されており、128Kトークンのコンテキストウィンドウでテキスト・画像・音声を処理します。ワークステーション層の26B A4Bはアクティブパラメータ約40億のMoE構造で、31B Denseは256Kトークンのコンテキストウィンドウを持ちます。AIME 2026(数学推論)で89.2%、LiveCodeBench v6(競技プログラミング)で80.0%、GPQA Diamond(大学院レベル科学推論)で84.3%という性能を報告しています。
またGemma 3まで採用されていたGoogleの独自ライセンスからApache 2.0への移行も重要な変化です。商用利用・改変・再配布が完全に許可される標準的なライセンスとなり、企業が製品に組み込む際の法的リスクが大幅に低下しました。
Hugging Face CTOがリリース直後に「BREAKING NEWS🔥」とXに投稿し、コミュニティでは即座に量子化版が公開されるなど、注目度の高さが際立ちました。r/LocalLLaMAでは「Googleがついに本気のオープンモデルを出した。DeepSeekが独占していた効率的なオープンモデル市場に変化の兆しがある」という評価が多く見られます。Hacker Newsでは「Apache 2.0で完全商用利用可能になった点とGemma 3からの大幅な性能向上を評価する声が多数」というコメントが上位に並びました。
2026年4月時点でオープンソースAIの競争は激化しています。GLM-5.1のSWE-Bench Pro首位、DeepSeek V4の1兆パラメータApache 2.0公開と相次ぐ発表の中でのGemma 4投入は、Googleが「閉じたAPIのみの提供」から「開放的なエコシステム構築」へと戦略を転換しつつあることを示唆します。HuggingFace、Kaggle、Ollamaからモデル重みを取得できるため、即座にローカル環境で試せる点も採用の促進要因となるでしょう。エッジからワークステーションまでをカバーする4サイズ展開は、IoTデバイスから企業サーバーまで様々な展開シナリオに対応する柔軟な選択肢を提供します。