GoogleはGemma 4をパラメータ規模の異なる4サイズ(2B・4B・26B MoE・31B Dense)でリリースし、Gemmaシリーズとして初めてOSI(Open Source Initiative)が承認するApache 2.0ライセンスを採用したと発表しました。従来のカスタムライセンスから変更されたことで商用利用のハードルが大幅に下がり、リリース後わずか数時間でOllamaやllama.cpp向けのコミュニティ派生モデルが96種類以上公開されました。
Apache 2.0ライセンス採用の意義は大きく、これまでGemmaの商用展開を躊躇していた企業が本番環境への組み込みを検討しやすくなります。Redditのr/LocalLLaMaでは「Apache 2.0採用を大歓迎する声が多数」寄せられており、特に派生モデルや独自チューニングを含む製品への組み込みを計画していた開発者から歓迎の声が上がっています。ただし「26B MoEの推論速度の遅さを報告するユーザーも」おり、Mixture-of-Experts(混合専門家)アーキテクチャ特有の推論遅延問題は実用上の課題として残っています。
Hacker Newsでは「ライセンス変更がオープンソースAIの商用展開に与える影響を評価する声が多く、Meta Llamaとの比較議論も活発」で、Llamaのカスタムライセンスとの違いが具体的なユースケースでどう効いてくるかが議論されています。X上では「Alibaba Qwen 3.6-PlusとMeta Llama 4と同日リリースが重なり『2026年4月はオープンソースAI史上最激戦月』とのコメントが多数」見られ、強力なオープンモデルが短期間に集中してリリースされる異例の状況が続いています。
4サイズ展開により、スマートフォンからサーバーまで幅広い用途をカバーできる点もGemma 4の強みです。Apache 2.0の採用とオープンソースAIエコシステムの成熟が相まって、Googleが「インフラ標準を握る」戦略でMeta・Mistral・Alibabaとの競争を展開する構図が鮮明になっています。