← 2026-04-10
Open Source Community 2026-04-10 Source →

Google DeepMindがGemma 4をApache 2.0でリリース——31BがArena AIオープンモデル3位(ELO 1452)、AIME 2026数学で89.2%、Raspberry Pi 5でも動作

Google DeepMindは2026年4月2日、オープンソースのマルチモーダルモデルファミリー「Gemma 4」をApache 2.0ライセンスで公開しました。エッジ向けの2B・4B(音声・画像・動画対応)、MoE構成の26B、そしてフラッグシップの31B Denseという4バリアント構成で、テキスト・画像・音声・動画(最大60秒、1FPS)の統合処理に対応しています。31BはArtificial Analysis Intelligence IndexのArena AIテキストリーダーボードでELO 1452を記録しオープンモデル世界3位に位置しており、数学ベンチマークAIME 2026では89.2%、競技プログラミング評価LiveCodeBenchでは80.0%を達成しています。

技術的な特徴として、31Bは最大256Kトークンのコンテキストウィンドウを持ち、140以上の言語を文化的コンテキストを踏まえて処理できます。一方、エッジ向けの2Bおよび4Bモデルは128Kトークンのコンテキストに対応しつつ、スマートフォンやRaspberry Pi 5、NVIDIA Jetson Orin Nanoといったデバイス上でほぼゼロレイテンシで動作することが確認されています。Google Open Source Blogによると、Apache 2.0ライセンスの採用により商用利用も完全に自由であり、Llama系モデルで見られた利用条件の制約がありません。

X上では「31BがArena AI 3位とは驚き。スマホからRaspberry Piまで動く多様性が素晴らしい」と開発者コミュニティから絶賛の声が上がっています。r/LocalLLaMAでは早速エッジモデルの実行レポートが続々と投稿されており、「Raspberry Pi 5で実用的に動く最初のマルチモーダルモデル」という位置付けで注目を集めています。Hacker NewsではGoogleがオープンソースに本腰を入れた証拠として歓迎する論調が多く、Apache 2.0での商用利用が可能な点が特に高く評価されています。

Gemma 4は、大規模な推論クラスタを持たない開発者・研究者がマルチモーダルAIをローカル環境で試せる敷居を大幅に下げた作品といえます。MoEの26B(Arena AI 6位)と合わせて、GoogleのオープンAI戦略の本気度が問われる局面がやってきています。

関連リンク