← 2026-04-20
Open Source Community 2026-04-20 Source →

DeepSeek V4、1兆パラメータのMoEモデルを完全オープンウェイトで公開——訓練コストはGPT-5の約1/50

中国のAIスタートアップDeepSeekが、1兆パラメータ規模のMixture-of-Experts(MoE:複数の専門家モデルを組み合わせる手法)モデル「V4」を完全オープンウェイト(重みパラメータを公開)で公開しました。訓練コストは約520万ドルと推定され、米国フロンティアモデルに匹敵する性能を圧倒的な低コストで実現したことが、AI業界に再び衝撃を与えています。

「業界の常識を覆した」——コスト効率の衝撃

DeepSeek V4が特に注目を集めているのは、その性能対コスト比です。推論価格は約0.14ドル/100万トークンとされており、これはGPT-5の約1/20に相当するとHacker Newsで比較が話題となりました。MoEアーキテクチャは、入力に応じて一部の専門化されたサブネットワークのみを活性化する仕組みで、全パラメータを常に使うわけではありません。そのため1兆パラメータという巨大なスケールを持ちながらも、実際の計算コストを大幅に抑えることができます。r/MachineLearningでは「再び業界の常識を覆した」と称賛が相次ぎ、公開から数日でHugging Face上のダウンロード数が記録的な水準に達しました。

ただし、手放しで歓迎されているわけでもありません。DeepSeek V4の訓練にはHuawei製AIチップが使われているとされており、Nvidiaへのアクセス制限(米国の輸出規制)を受ける中国企業がいかに独自の調達経路を確保しているかという問題が改めて浮上しました。また、X(旧Twitter)では、DeepSeekとQwenを合わせたオープンソースモデルの市場シェアが1年間で1%から15%に急増したというデータが注目を集め、米国AI業界への実質的な脅威として議論されています。

オープンウェイトの意味

完全オープンウェイトでの公開は、研究者や企業がモデルをダウンロードしてローカルで動かしたり、独自にファインチューニングしたりできることを意味します。これは商用利用の障壁を大幅に下げるものであり、特に自前のクラウドAPIに依存したくない企業にとって魅力的な選択肢となります。今後、DeepSeek V4を基盤とした派生モデルや特化型モデルが数多く登場することが予想され、オープンソースAIエコシステムの裾野がさらに広がりそうです。

関連リンク