DeepSeekが2026年4月、1兆パラメータのMixture-of-Experts(MoE)モデル「V4」をApache 2.0ライセンスで公開しました。推論コストは$0.30/百万トークン、訓練費用は約520万ドルとされており、米国の同規模フロンティアモデルが数百億ドルの投資を要求するのと比べて桁違いのコスト効率を実現しています。内部ベンチマークではSWE-Bench Proで80%超の性能を主張しており、「AI開発には巨額投資が必要」という前提を再び覆す内容となっています。
NxCodeの技術解説によると、DeepSeek V4の主なアーキテクチャ上の革新は3つです——マニフォールド制約型ハイパー接続(mHC)、条件付きメモリ機構「Engram」、そしてSparse Attentionです。1兆の総パラメータに対して1トークンあたりのアクティブパラメータは約37Bに抑えられており、推論効率が高い設計となっています。コンテキストウィンドウは100万トークン、テキスト・画像・動画のマルチモーダル処理にも対応しています。
X(旧Twitter)では「またDeepSeekが業界の常識を壊した。520万ドルで1兆パラメータ、西側企業が数百億ドルを投じているのに何なのか」という声が広く拡散されました。r/LocalLLaMAでは「Apache 2.0なら商用利用も改変も自由、これで自社モデルを構築できる」と大きな歓迎を受けています。Hacker Newsでは「AIに巨額投資が必要というナラティブを根本から崩す」というコメントがトップスレッドで大きな反響を呼び、VC資金調達額とモデル性能が比例しないという議論に発展しています。
なお、当初は2026年2月リリースと報じられていましたが、実際の公開は4月にずれ込みました。ハードウェアについては、Huaweiチップ上でトレーニングが行われたとされており、米国の輸出規制下でも高性能モデルの開発が進んでいることを示す事例として注目されています。
DeepSeekは過去のV2・V3リリース時も「コスト効率の桁違いな改善」で業界を驚かせてきました。今回のV4も同じパターンで、Apache 2.0という最も開放的なライセンスの下で公開されたことで、企業・スタートアップ・研究者が商用プロダクトのベースとして利用できます。GLM-5.1やGemma 4と合わせて考えると、2026年のオープンソースAIはクローズドモデルに対して本格的な性能面の競争力を持つフェーズに入ったといえます。ただし内部ベンチマーク80%という数字は独立した第三者による検証が待たれる状況で、実際の性能評価はコミュニティでの検証結果を見極める必要があります。