中国のAI企業DeepSeekが開発する次世代モデル「DeepSeek V4」が、3月初旬にリリース予定であることがFinancial Timesの報道で明らかになりました。1兆パラメータ(アクティブ320億)のMixture of Experts(MoE)アーキテクチャを採用し、100万トークンのコンテキストウィンドウを実現する大規模モデルです。
NxCodeによると、DeepSeek V4は2025年後半から2026年初頭にかけて発表された3つの技術的ブレイクスルーを統合しています。「Manifold-Constrained Hyper-Connections」、条件付きメモリ機構「Engram」(2026年1月にarXiv:2601.07372として発表)、そして「DeepSeek Sparse Attention」です。特にEngramはGitHubでオープンソース公開されており、研究者からの注目を集めています。このモデルはHuawei Ascendチップに最適化されており、米国の輸出規制下でも競争力を維持する中国AI企業の技術力を示しています。
V4の最大の特徴は自律コーディング能力です。単純なコード生成ではなく、ソフトウェアリポジトリ全体を人間レベルの推論で管理することを目指しています。2月11日には本番環境のコンテキストウィンドウが128Kから100万トークンへと静かに拡張され、コミュニティテストでは100万トークン長でも60%以上の精度を維持していることが確認されました。RedditのLocalLLaMAコミュニティでは308ポイントを獲得し期待が高まる一方、HumanEval 90%、SWE-bench 80%超えという流出情報についてはX上で「独自検証待ち」という慎重な姿勢も見られます。
西側諸国のAI優位性を脅かす存在として注目されるDeepSeek V4。公式リリースとベンチマーク結果の公開が待たれます。