← 2026-04-13
Open Source Community 2026-04-13 Source →

DeepSeek V4、数週間以内にリリース予定—1兆パラメータMoE・100万トークンコンテキスト・ネイティブマルチモーダル、訓練コストはわずか約520万ドルと推定

Reutersの報道を皮切りに複数メディアが確認したところによると、中国のAI企業DeepSeekが開発中の「DeepSeek V4」が数週間以内に公開される見通しです。アーキテクチャは総パラメータ数1兆のMoE(Mixture-of-Experts:混合エキスパート)モデルで、1トークン処理あたりの実際の演算には約320〜370億パラメータのみを使用します。コンテキストウィンドウは100万トークン、テキスト・画像・動画のネイティブマルチモーダル生成に対応し、Apache 2.0ライセンスでの公開が予定されています。Huawei Ascend 950PRおよびCambriconのMLUチップに最適化されており、訓練コストは約520万ドルと推定されています。

「Engram記憶」で100万トークンを実現

V4の最大の技術的特徴の一つが「Engram条件付きメモリ(Engram Conditional Memory)」アーキテクチャです。Morph LLMの技術解説によれば、従来のLLMで発生しやすい長距離の文脈喪失を抑制し、100万トークン規模のNeedle-in-a-Haystackテスト(長文の中から特定情報を探す精度テスト)で97%の精度を達成したとされています。これは既存の長文脈モデルが苦手とする「コンテキストが長くなるほど注意が分散する」問題を克服した可能性を示すものです。

なお2026年3月9日にDeepSeekの公式サイトに「V4 Lite」が一時的に登場したことから、段階的なロールアウト戦略が採られている可能性も指摘されています。正式公開がいつになるかは4月時点でまだ未確定ですが、ベンチマーク上ではSWE-benchで81%を達成したとの報告もあり、特にコーディング・数学・長文脈推論に強みがあるとされています。

Reddit・r/LocalLLaMAでは大きな盛り上がりを見せており、「V3が既に驚異的だったのにV4がオープンウェイトで出るなら自己ホスティング(self-hosting)の選択肢が根本的に変わる」という興奮した投稿が続いています。X(旧Twitter)では「Apache 2.0・1兆パラメータ・Huaweiチップ動作——地政学的AI競争が現実になっている」という投稿が広く拡散しました。

Hacker Newsでは「520万ドルの訓練コスト」に対する懐疑論が上位を占めており、「インフラの償却コストを計上したら数字が変わるはずだ。それでも驚くほど安いが」という指摘が多くの共感を得ています。

米国の輸出規制への回答

V4がHuawei Ascendチップに完全最適化されているという事実は、米国の半導体輸出規制(NVIDIAのH100等を中国に禁輸)の実効性に直接疑問を投げかけています(詳細はID 14の記事を参照)。中国が国産チップエコシステムで1兆パラメータ規模のモデルを訓練・推論できることを示したとすれば、技術覇権をめぐる競争の前提が大きく変わることになります。オープンウェイト公開後には、ローカル環境での実行検証が世界中の研究者・開発者によって行われるはずで、その結果が主張された性能を裏付けるかどうかが次の焦点です。

関連リンク