中国のAI企業DeepSeekが開発中の次期モデル「DeepSeek V4」が、ソフトウェアエンジニアリングベンチマーク「SWE-Bench Verified」で83.7%を達成したとの情報が流出しています。1兆パラメータという巨大なモデルでありながら、各トークン処理時には約320億パラメータのみを活性化するMixture-of-Experts(MoE)アーキテクチャを採用しており、効率性と性能を両立させているとのことです。
DeepSeek V4には3つの技術革新が含まれています。まず「Manifold-Constrained Hyper-Connections(mHC)」は従来の超接続における数値不安定性を解決し、信号増幅を3000倍から1.6倍に抑制することで、わずか6.7%の訓練時間オーバーヘッドで4倍広いニューラルネットワークを実現します。次に「Engram条件付きメモリ」により、定数時間O(1)での知識検索が可能となり、計算と記憶を75-80%対20-25%の比率で最適配分します。さらに「DeepSeek Sparse Attention」は100万トークンのコンテキストウィンドウを50%の計算削減で処理可能にし、従来の二乗的スケーリングをほぼ線形に改善しています。
X(旧Twitter)では「Claude Opus 4.5やGPT-5.2 Codexを超えるならDeepSeekモーメント第2弾だ」と期待が高まる一方、ベンチマーク流出に懐疑的な声も上がっています。特にAIME 2026で99.4%という数値については「公式スコアリングでは不可能」との指摘もあり、独立検証が完了するまで慎重な見方も必要です。なお、DeepSeekはHuawei Ascendチップでの訓練を試みたものの接続性の問題からNVIDIA加速器に戻った経緯があり、推論にはHuaweiチップを活用しつつ訓練はNVIDIAを使用するという現実的なアプローチを取っているとされています。
DeepSeek V4のリリースは2026年3月中旬が予定されており、Apache 2.0ライセンスでのオープンソース公開が見込まれています。デュアルRTX 4090での動作が可能とされ、実現すれば中国発の最も強力なオープンソースAIモデルとなる可能性があります。