← 2026-03-12
Open Source Community 2026-03-12 Source →

Zhipu AI、744Bパラメータの「GLM-5」をオープンソース公開 - Huawei製チップのみで訓練、SWE-benchで1位

中国のAI企業Zhipu AIが2月11日にリリースした大規模言語モデル「GLM-5」が、オープンソースLLMの新たなマイルストーンとして注目を集めています。GLM-5は約744億(744B)パラメータを持つMixture of Experts(MoE)アーキテクチャを採用し、256のエキスパートのうち8つをトークンごとに活性化させることで、推論時には約440億パラメータ相当の効率で動作します。

特筆すべきは、GLM-5がHuawei製Ascendチップとオープンソースフレームワーク「MindSpore」のみで訓練されたという点です。米国製半導体を一切使用せずにフロンティアモデルを構築したことは、中国のAI技術の自立性を示す象徴的な成果といえます。性能面でもSWE-bench Verifiedで77.8%を達成し、オープンソースモデルとして1位を獲得。Humanity's Last Examでは50.4点(ツール使用時)を記録し、Claude Opus 4.5(43.4点)を上回っています。

価格面でも競争力があり、入力100万トークンあたり約0.80ドル、出力は約2.56ドルと、Anthropicのフラッグシップモデルの約6分の1の価格設定となっています。r/LocalLLaMAでは「中国発オープンソースモデルの急速な進歩」に対する驚きの声が上がっており、MITライセンスでの公開により商用利用やファインチューニングも自由に行えることから、グローバルな開発者コミュニティでの採用拡大が期待されています。

関連リンク

- [GLM-5 Zhipu AI's Next-Generation Large Language Model](https://glm5.net/)