中国のAI研究企業DeepSeekが、次世代モデル「DeepSeek V4」を2026年4月中にApache 2.0ライセンスで公開する予定であることが明らかになっています。総パラメータ数1兆・アクティブパラメータ約370億のMoE(Mixture-of-Experts)アーキテクチャを採用し、SWE-bench Verifiedで81%超のスコアを訓練コストわずか520万ドルで達成したとされています。
MoE(専門家の混合)とは、モデルの全パラメータを一度に使用するのではなく、入力に応じて一部のパラメータ(「専門家」)のみをアクティブ化する構造で、演算効率を大幅に高める手法です。DeepSeek V4では1兆パラメータのうち推論時にアクティブになるのは370億程度に留まり、GPT-5.4級の性能を桁違いに低いコストで実現できると主張しています。コンテキストウィンドウは100万トークン、マルチモーダル(テキスト・画像・動画)にも対応する予定です。
2026年1月のDeepSeek V3がNvidiaの株価を急落させた「DeepSeekショック」の再現を予感させるリリースとして注目を集めていますが、ベンチマークスコアはまだ独立機関による検証が行われておらず、あくまで内部発表値である点に注意が必要です。
r/LocalLLaMAでは「V3で世界を驚かせたDeepSeekがまた同じことをやろうとしている」「Nvidiaの株価への影響が怖い」という投稿で盛り上がっています。Hacker Newsでは「520万ドルの訓練コストでGPT-5.4に迫る性能というのは本当なら業界の常識を再び覆す」という議論が長大なスレッドに発展しました。X上ではAIリサーチャーたちが「DeepSeekの効率性は米中のAI競争において戦略的に重要な意味を持つ」と相次いで分析を投稿しています。
Apache 2.0での公開が予定通り実現すれば、フロンティアモデル級の性能を持つ完全商用利用可能なモデルが誰でも無償で利用できる状況になります。APIの価格設定も従来DeepSeekが採ってきた低価格路線が踏襲されるとみられており、モデル市場全体の価格競争をさらに加速させる可能性があります。