中国のAI企業Zhipu AIが2月13日、744億パラメータの大規模言語モデル「GLM-5」をMITライセンスで公開しました。最大の特徴は、NVIDIA GPU を一切使用せず、Huawei Ascend 910Bチップ10万基とMindSphereフレームワークのみで訓練された点です。米国の半導体規制下で、中国企業がフロンティアモデルを自前のハードウェアで構築できることを実証した形です。
GLM-5は744億パラメータを持つMixture of Experts(MoE)アーキテクチャを採用していますが、推論時にアクティブになるのは400億パラメータのみで、28.5兆トークンで訓練されています。ベンチマーク性能は、SWE-bench Verifiedで77.8%、AIME 2026で92.7%、GPQA-Diamondで86.0%を達成し、BrowseComp、Vending Bench 2、MCP-Atlasでもオープンソースモデルをリードしています。Humanity's Last Examでは50.4%を記録し、Claude Opus 4.5を上回りました。さらに業界最低のハルシネーション(幻覚)率を実現したとされています。
価格面では、GPT-5.2やClaude Opus 4.6の5〜6分の1という低コストを実現。X上では「米国ハードウェア非依存で最先端モデル」という点が地政学的に注目を集め、Redditのr/LocalLLaMAではMITライセンスと100万トークンあたり0.80ドルという低価格に好意的な反応が寄せられています。モデルはHuggingFace(zai-org/GLM-5)で公開されており、APIアクセスはchat.z.aiとOpenRouter経由で利用可能です。
半導体規制が続く中、中国のAI開発能力が着実に向上していることを示す重要なマイルストーンとなりました。
| - [GLM-5 Complete Guide: China's 744B Open-Source Model | NxCode](https://www.nxcode.io/resources/news/glm-5-open-source-744b-model-complete-guide-2026) |
|---|---|
| - [How China's GLM-5 Works: 744B Model on Huawei Chips | Let's Data Science](https://letsdatascience.com/blog/china-trained-frontier-ai-model-glm-5-without-nvidia) |