← 2026-03-29
Open Source Community 2026-03-29 Source →

中国Zhipu AIが744Bパラメータの「GLM-5」をMITライセンスで公開、Huaweiチップのみで訓練

中国のAI企業Zhipu AI(智譜AI)は2026年2月13日、744億パラメータの大規模言語モデル「GLM-5」をMITライセンスでオープンソース公開しました。NVIDIAのGPUを一切使用せず、Huawei Ascend 910Bチップ10万基のクラスターで訓練された点が大きな特徴です。

GLM-5はMixture-of-Experts(MoE)アーキテクチャを採用しており、総パラメータ数は744Bですが、推論時にアクティブになるのは40Bのみです。256の専門家サブネットワークから各トークンごとに8つを選択してルーティングする仕組みで、前モデルのGLM-4.5(355B/32Bアクティブ)から大幅にスケールアップしています。事前学習データも23兆トークンから28.5兆トークンへと増加しました。

性能面ではGPT-5.2やClaude Opus 4.6と同等クラスと評価されており、APIの利用料金はGPT-5.2の5〜6分の1に設定されています。モデルウェイトはHugging Face(zai-org/GLM-5)で公開されており、chat.z.aiやOpenRouter経由でのAPI利用も可能です。X上ではGLM-5-Turboの非オープンソース化が一時話題となりましたが、Zhipu AIは次期バージョンのGLM-5.1ではオープンソース継続を明言しています。

一方、Hacker Newsでは中国のオープンソースAIエコシステムの持続可能性に疑問を呈する声も上がっています。米中間の技術競争が激化する中、NVIDIAチップへの依存から脱却しつつフロンティアモデルを開発できることを実証した点は、地政学的にも大きな意味を持ちます。MITライセンスによる商用利用の自由度の高さも相まって、グローバルなAI開発の選択肢が広がったと言えるでしょう。

関連リンク