中国のAI企業Zhipu AI(智譜AI)が、新たなフラッグシップモデルGLM-5を2026年2月11日にリリースしました。約7440億パラメータを持つこの大規模言語モデルは、複雑なシステムエンジニアリングと長期エージェントタスクに特化して設計されており、MITライセンスの下でオープンソースとして公開されています。
技術的に注目すべきは、GLM-5がNVIDIA製GPUを一切使用せずに訓練されたという点です。訓練には10万台のHuawei Ascend 910Bプロセッサが使用され、これらはHuawei傘下のHiSiliconが設計し、中国最大の半導体メーカーであるSMICが7nmプロセスで製造したチップです。米国の半導体輸出規制の中で、中国が独自のAIインフラを構築できることを示す重要な事例となりました。
GLM-5はMixture of Experts(MoE)アーキテクチャを採用しており、256のエキスパートのうち8つがトークンごとに活性化されます(5.9%のスパース率)。推論時の実効パラメータは約440億で、これにより効率性と性能を両立しています。内部テストでは、コーディングとエージェント性能でGoogle DeepMindのGemini 3 Proを上回ったと同社は発表しています。価格面でも、入力100万トークンあたり約0.80ドル、出力100万トークンあたり約2.56ドルと、Claude Opus 4.6の約6分の1のコストで利用可能です。
r/LocalLLaMAでは「中国勢のオープンソースモデルが本格的にGPT/Claudeと競合し始めた」との評価があり、リリース翌日には香港上場株が28.7%上昇するなど、市場の反応も大きなものでした。