中国のAI研究機関DeepSeekが、1兆パラメータ規模のMixture-of-Experts(MoE)モデル「DeepSeek V4」をApache 2.0ライセンスで完全オープン化しました。1トークンあたりのアクティブパラメータは約370億に抑えられており、推論効率と性能を両立するアーキテクチャが特徴です。コーディング評価指標HumanEvalでは94.7%を達成しており、西側フロンティアモデルに迫る水準です。APIコストは入力$0.30/MTokと、GPT-5.4の標準プランと比較して約8分の1以下の価格設定となっています。
特に業界に衝撃を与えているのが、推定訓練コストのわずか520万ドルという数字です。DeepSeek V3の公式訓練コスト(557万ドル)と同水準であり、NxCodeによると西側の主要フロンティアモデルが要する数十億ドル規模と比べると数百分の1に相当します。コンテキストウィンドウは100万トークンに達しており、「Engram記憶」と呼ばれる条件付きメモリ機構を組み合わせることで、長期にわたるコーディングエージェントタスクへの対応を強化しています。
X上では「AIには何百億ドルもの資金と独占リソースが必要という業界の主張をまた崩した」と驚きと称賛が入り交じっています。r/MachineLearningでは訓練コスト520万ドルの技術的根拠を検証する議論が活発で、「高品質なデータキュレーションがコスト効率の鍵」という分析が上位を占めています。Hacker Newsでは「GitHub Copilotが不要になる日は近い」という実用的な議論が展開され、Apache 2.0ライセンスによる自社サーバーへのデプロイ可能性が特に注目されています。
DeepSeekがV3から一貫して示してきた「少ないコストで最大の性能」という開発哲学は、大規模モデルには莫大な資本が必要という前提を揺さぶり続けています。オープンソース・低コスト・高性能という三拍子が揃ったV4は、企業のAI調達判断に直接的な影響を与えそうです。