中国のAIスタートアップDeepSeekは、1兆パラメータのマルチモーダルモデル「DeepSeek V4」を3月第1週にリリースする予定です。テキスト、画像、動画を統合的に扱えるネイティブマルチモーダルモデルで、100万トークンのコンテキスト長に対応します。最大の特徴は、米国の輸出規制を受けてNvidiaチップを排除し、Huawei AscendおよびCambricon製チップ向けに最適化されている点です。
技術的には、約1兆の総パラメータに対し、推論時のアクティブパラメータは約320億に抑えるスパースMixture-of-Experts(MoE)アーキテクチャを採用しています。これにより、巨大モデルでありながら効率的な推論が可能になります。軽量版の「V4 Lite」(2000億パラメータ)も内部テスト段階にあるとのことです。
X上では「DeepSeek V4はNvidiaを排除するよう設計されている。前回のDeepSeekリリースでは、Nvidiaは1日で6000億ドルの時価総額を失い、史上最大の単日損失を記録した」との指摘があります。Z.ai共同創業者のTang Jieは「V4は既存の中国オープンソースLLMすべてを上回る可能性が高い」と予測しています。単なる性能競争ではなく、米国製半導体への依存を減らす「技術主権」の観点からも注目されているのです。
DeepSeekはオープンソースライセンスでのリリースを予定しており、世界中の開発者がファインチューニングや展開を自由に行えます。米中AI競争が「性能」から「サプライチェーン」へと移行する中、DeepSeek V4はその象徴的な存在となりそうです。
| - [DeepSeek V4: China's Trillion-Parameter Multimodal AI | AI2Work](https://ai2.work/blog/deepseek-v4-china-s-trillion-parameter-multimodal-ai-rival-in-2026) |
|---|---|
| - [DeepSeek plans V4 multimodal model release | TechNode](https://technode.com/2026/03/02/deepseek-plans-v4-multimodal-model-release-this-week-sources-say/) |
| - [DeepSeek V4's 1-Trillion Parameter Architecture | Introl Blog](https://introl.com/blog/deepseek-v4-trillion-parameter-coding-model-february-2026) |