← 2026-04-19
Open Source Community 2026-04-19 Source →

中国Zhipu AIがGLM-5.1を完全無償公開——744Bパラメータ・MITライセンスでフロンティアモデルに対抗

中国のAIスタートアップZhipu AIが、7440億パラメータのMoE(混合エキスパート)モデル「GLM-5.1」をMITライセンスで一般公開しました。アクティブパラメータ数は約400億、コンテキスト長は20万トークンに対応しており、商用利用を含む制限なしの利用が可能です。同社によると、フロンティアモデルに匹敵する性能を持つとされており、マルチモーダルコーディング特化の「GLM-5V-Turbo」も同時にリリースされています。

GLM-5.1の技術的な特徴として注目されるのが、「非同期RLトレーニングフレームワーク」の採用です。Zhipu AIによると、この手法によって強化学習の効率が大幅に向上し、従来のオープンソースモデルと比較してフロンティアモデルに迫る推論能力を実現したとしています。特にコーディングや数学的推論の分野での性能が際立っており、GLM-5V-Turboはマルチモーダルタスクでの利用を想定した設計となっています。

X(旧Twitter)では「MITライセンス+744Bパラメータ+商用無制限という組み合わせは前例がない」と歓迎する声が多数あがりました。Reddit(r/MachineLearning)では373ポイント・452コメントを記録する大きな反響となり、「非同期RLフレームワークの実装が興味深い」「フロンティアとノンフロンティアの差はRLインフラにある」という技術論が中心的な議論となっています。Hacker Newsでは、Stanfordが発表したAIインデックスが示す米中のモデル性能格差解消という文脈でGLM-5.1が言及され、「2026年4月だけで6社から9モデルがリリースされた」というオープンソースの爆発的増加を象徴するリリースとして評価されています。

今回のGLM-5.1公開は、米中AI競争がオープンソース領域でも激化していることを示しています。DeepSeekやQwenに続き、Zhipu AIも最大規模クラスのモデルを完全無償で公開したことで、プロプライエタリモデルへの代替手段はますます充実しつつあります。今後はApache 2.0の大規模モデルも含め、エンタープライズ・研究機関双方のオープンソース活用が加速していくと見られています。

関連リンク