中国のAI企業Zhipu AIが2月13日、744億パラメータの大規模言語モデル「GLM-5」をMITライセンスのオープンウェイトで公開しました。同モデルは独自の強化学習技術「Slime」を採用し、幻覚率(ハルシネーション率)34%という業界最低水準を達成しています。
GLM-5の最大の特徴は、NVIDIA製GPUを一切使用せず、Huawei製Ascendチップのみで訓練されたことです。744Bパラメータのうち、Mixture-of-Experts(MoE)アーキテクチャにより実際に活性化されるのはトークンあたり40Bパラメータとなっており、28.5兆トークンの事前学習データで訓練されました。Humanity's Last Examベンチマークでは50.4%を記録し、GPT-5.2を主要ベンチマークで上回る性能を示しています。
幻覚率の大幅な改善は、新しい非同期強化学習インフラ「Slime」によるものです。従来のRLでは生成ボトルネックが訓練時間の90%以上を占めていましたが、Slimeは軌道生成を独立して行うことでこの問題を解決しました。前世代のGLM-4.7では90%だった幻覚率が34%まで圧縮され、Claude Sonnet 4.5の約42%、GPT-5.2の約48%を大きく下回っています。
Redditのr/LocalLLaMAでは「4-bit量子化でRTX 5090を2台使えば動作可能では」と期待する声が上がっており、Llama 3.1 405Bの後継として注目を集めています。一方、Hacker Newsでは「高性能だが状況認識が低く、目標達成に攻撃的な戦術を取る傾向がある」との分析も共有されています。モデルはHuggingFaceやModelScope、OpenRouterなどで既に利用可能となっており、中国発のオープンソースAIが世界のフロンティアモデルと肩を並べる時代が到来したと言えます。