中国のAI企業Zhipu AIは2026年2月11日、744Bパラメータの大規模言語モデル「GLM-5」をMITライセンスでオープンソース公開した。全パラメータがHuawei Ascendチップで訓練されており、SWE-bench Verifiedで77.8%を達成。西側のフロンティアモデルに匹敵する性能をオープンウェイトで提供する画期的なリリースとなった。
GLM-5はZhipu AIが開発した第5世代の大規模言語モデルで、約744億パラメータのMixture of Experts(MoE)アーキテクチャを採用している。アクティブパラメータは約40〜44Bで、28.5兆トークンのデータで訓練された。特筆すべきは、すべての訓練が10万基のHuawei Ascend 910Bチップを用いてMindSporeフレームワークで行われた点だ。
米国の輸出規制によりNVIDIAの先進GPUが中国に供給制限される中、Zhipu AIは国産ハードウェアでフロンティアスケールのAI訓練が可能であることを実証した。これは中国のAI産業の自立性を示す重要なマイルストーンとなる。
性能面では、GLM-5はオープンソースモデルとしてVending Bench 2、BrowseComp、MCP-Atlasでトップスコアを記録。SWE-bench Verifiedでは77.8%を達成し、コーディングおよびエージェントベンチマークでClaude Opus 4.5に迫る水準に到達している。
MITライセンスでの公開により、商用利用を含む幅広い用途での活用が可能となった。モデルウェイトはHuggingFace(zai-org/GLM-5)で公開されており、chat.z.aiおよびOpenRouter経由でのAPI利用も可能だ。オープンソースAIコミュニティにとって、プロプライエタリなフロンティアシステムとの性能ギャップを埋める重要なリソースとなっている。