中国Zhipu AI(智譜AI)は2月12日、744億パラメータの大規模言語モデル「GLM-5」をMITライセンスで公開しました。前世代GLM-4.5の355Bパラメータから大幅にスケールアップし、Mixture-of-Experts(MoE)アーキテクチャでトークンあたり40Bをアクティブ化します。事前学習データは28.5兆トークンに達し、複雑なシステムエンジニアリングと長期エージェントタスク向けに設計されています。
最大の注目点は、GLM-5がNvidia GPUを一切使用せず、Huawei Ascendチップのみで訓練されたことです。米国の輸出規制下でも最先端モデルの開発が可能であることを実証しました。また、AA-Omniscience Index(知識信頼性指標)でスコア-1を達成し、前世代から35ポイント改善。Google、OpenAI、Anthropicを含む全AI企業を上回り業界首位に立ちました。
価格面でも破壊的で、OpenRouterでは入力100万トークンあたり約0.80〜1.00ドル、出力は2.56〜3.20ドルと、Claude Opus 4.6の約6分の1の価格設定です。Hacker NewsではGLM-4シリーズからの技術的飛躍に注目が集まり、Redditでは「中国AIエコシステムの多様性を示す重要なリリース」と評価されています。また、プログラミング性能はClaude Opus 4.5と同等レベルとの報告もあります。
訓練効率向上のため、Zhipu AIは「slime」と呼ばれる新しい非同期強化学習インフラを開発しました。ハルシネーション率の記録的な低さも特徴で、エンタープライズ用途での信頼性が期待されています。
| - [GLM-5 | Hugging Face](https://huggingface.co/zai-org/GLM-5) |
|---|---|
| - [z.ai's open source GLM-5 achieves record low hallucination | VentureBeat](https://venturebeat.com/technology/z-ais-open-source-glm-5-achieves-record-low-hallucination-rate-and-leverages) |
| - [GLM-5 Released: 744B Open-Source Model | Build Fast with AI](https://www.buildfastwithai.com/blogs/glm-5-released-open-source-model-2026) |