中国のAI企業DeepSeekが開発する次世代モデル「DeepSeek V4」のリリースが数週間以内に迫っているとThe Informationが報じています。同モデルはMoE(Mixture-of-Experts、複数の専門モジュールを組み合わせて効率的に処理するアーキテクチャ)を採用した約1兆パラメータ規模のモデルで、実際に各トークンの処理で活性化されるパラメータは約370億に留まります。訓練コストは520万ドルとされており、これはOpenAIやAnthropicのフロンティアモデルの訓練費用と比較して桁違いに低いとされています。
NxCodeの報告によると、DeepSeek V4はHumanEval(コーディング能力評価ベンチマーク)で94.7%を達成し、SWE-bench Verified(実際のソフトウェア開発タスクを評価するベンチマーク)でも80%超のスコアが流出情報として伝えられています。コンテキストウィンドウは最大100万トークンで、Engram条件付きメモリを使った長文処理が可能です。さらにテキスト・画像・動画をまとめて扱うネイティブマルチモーダル生成に対応し、Apache 2.0ライセンスでのオープンウェイト公開が計画されています。
Redditのr/LocalLLaMAでは「DeepSeekが再び業界を震撼させるか」という期待感が高く、「中国製オープンソースAIが米国フロンティアモデルと互角以上という事実」を評価するコメントが多数寄せられました。Hacker Newsでは「たった520万ドルの訓練コストでClaude Opus 4.6と競合できるとすれば、米国AI企業の訓練コスト感覚がおかしいのでは」という鋭い指摘が上位に集まりました。
DeepSeek V4がApache 2.0で公開されれば、個人・スタートアップ・研究機関が商用制限なしに利用・改変できるフロンティアレベルのモデルが手に入ることになります。前作DeepSeek R2が2025年に米国AI業界に衝撃を与えたのと同様、V4の公開はオープンソースAIの勢力図を再び塗り替える可能性を秘めています。