中国のAIスタートアップZ.ai(旧Zhipu AI)は2026年4月7日、754億パラメータのMixture-of-Experts(MoE)モデル「GLM-5.1」をMITライセンスでHugging Faceに公開しました。同モデルはソフトウェアエンジニアリング能力の評価指標として広く参照されるSWE-Bench Proで58.4点を記録し、GPT-5.4の57.7点、Claude Opus 4.6の57.3点をいずれも上回って世界首位に立ちました。オープンウェイトモデルがこのベンチマークで全モデルの頂点に立つのは初のことです。
GLM-5.1の技術的な特徴として注目すべき点がいくつかあります。コンテキストウィンドウは200Kトークン、最大出力は128Kトークンで、長期的なコーディングセッションに必要な大規模コードベースの保持に適しています。また、8時間連続の自律コーディング実行に対応しており、従来のAIコーディングアシスタントが数分から数十分単位であったのとは一線を画します。さらに特筆すべき点として、VentureBeatによると同モデルはNvidiaのGPUを一切使用せず、Huawei Ascend 910Bチップのみで訓練されており、西側の半導体供給網に依存しない独自のAI開発インフラが確立されつつあることを示しています。
X上では「中国のオープンソースモデルがGPT-5.4とClaudeを超えた。1年前には想像もできなかった」と驚きの声が多数上がっています。r/LocalLLaMAではベンチマークの独立検証を求める議論が活発で、「実際のコーディングでの体感は?」というスレッドが急上昇しています。Hacker NewsではMITライセンスでの商用利用が可能な点が高く評価されており、「西側企業のコスト優位性が崩れつつある」という技術的考察が上位に並んでいます。
西側フロンティアモデルが数百億〜数千億ドル規模の投資を前提とするなか、非Nvidiaハードウェアを用いたオープンソースモデルが性能面でトップに立つという事実は、AI開発における地政学的な構図に新たな問いを投げかけています。GLM-5.1がローカル実行や商用活用でどれだけ普及するか、今後数週間の動向が見どころとなります。