中国のAIスタートアップZhipu AIは、総パラメーター数7440億(アクティブ400億)を持つMixture-of-Experts(MoE)モデル「GLM-5.1」をMITライセンスで公開しました。DeepSeekに続く中国発の大規模オープンソースモデルとして、グローバルなAIコミュニティから注目を集めています。
GLM-5.1の最大の特徴は、MoEアーキテクチャによる実用性の高さです。総パラメーター数こそ7440億と巨大ですが、推論時にアクティブになるパラメーターは約400億に抑えられています。これにより、フルサイズのDenseモデルと比べてメモリ要件を大幅に削減でき、高スペックなGPUクラスターがなくてもある程度の実行が視野に入ります。また、200Kトークンのコンテキスト窓を標準サポートしており、長文書の処理や複雑な会話シナリオへの対応が可能です。
MITライセンスでの公開という点も見逃せません。Apache 2.0と並ぶ最も制約の少ないオープンソースライセンスの一つであり、商用プロジェクトへの組み込みや改変・再配布が実質無制限に行えます。Google Gemma 4のApache 2.0公開と相まって、2026年春はオープンソース大規模モデルの「ライセンス競争」とも言える様相を呈しています。
X(旧Twitter)では「中国発の超大規模オープンソースモデル」として注目が集まり、MITライセンスの完全な商用利用可能性を歓迎する声が広がっています。一方、Hacker Newsでは「DeepSeekに続く流れとして関心は高いが、英語能力の実用評価をまず見たい」という実務的なコメントが多く寄せられており、ベンチマーク外での性能確認を求める慎重な姿勢も見られます。r/LocalLLaMAでは、実際にローカル実行するための最低限のハードウェア構成についての議論が活発で、MoEによるアクティブパラメーター削減効果への期待が大きいことがうかがえます。
GLM-5.1の登場は、大規模AIモデルの開発が西側諸国の特定企業に集中しているという状況に一石を投じるものです。オープンソースコミュニティがこのモデルをどう活用し、英語・多言語タスクでの実力を検証していくか、今後の評価が注目されます。