← 2026-03-23
Open Source Community 2026-03-23 Source →

中国Zhipu AI、744Bパラメータ「GLM-5」をMITライセンスで公開、Huaweiチップのみで訓練しNVIDIA非依存を実現

中国のAI企業Zhipu AIが2月13日、744億パラメータの大規模言語モデル「GLM-5」をMITライセンスで公開しました。最大の特徴は、NVIDIA GPU を一切使用せず、Huawei Ascend 910Bチップ10万基とMindSphereフレームワークのみで訓練された点です。米国の半導体規制下で、中国企業がフロンティアモデルを自前のハードウェアで構築できることを実証した形です。

GLM-5は744億パラメータを持つMixture of Experts(MoE)アーキテクチャを採用していますが、推論時にアクティブになるのは400億パラメータのみで、28.5兆トークンで訓練されています。ベンチマーク性能は、SWE-bench Verifiedで77.8%、AIME 2026で92.7%、GPQA-Diamondで86.0%を達成し、BrowseComp、Vending Bench 2、MCP-Atlasでもオープンソースモデルをリードしています。Humanity's Last Examでは50.4%を記録し、Claude Opus 4.5を上回りました。さらに業界最低のハルシネーション(幻覚)率を実現したとされています。

価格面では、GPT-5.2やClaude Opus 4.6の5〜6分の1という低コストを実現。X上では「米国ハードウェア非依存で最先端モデル」という点が地政学的に注目を集め、Redditのr/LocalLLaMAではMITライセンスと100万トークンあたり0.80ドルという低価格に好意的な反応が寄せられています。モデルはHuggingFace(zai-org/GLM-5)で公開されており、APIアクセスはchat.z.aiとOpenRouter経由で利用可能です。

半導体規制が続く中、中国のAI開発能力が着実に向上していることを示す重要なマイルストーンとなりました。

関連リンク

- [GLM-5 Complete Guide: China's 744B Open-Source Model NxCode](https://www.nxcode.io/resources/news/glm-5-open-source-744b-model-complete-guide-2026)
- [How China's GLM-5 Works: 744B Model on Huawei Chips Let's Data Science](https://letsdatascience.com/blog/china-trained-frontier-ai-model-glm-5-without-nvidia)