中国のAI企業DeepSeekが、「DeepSeek V4 Flash」および「DeepSeek V4 Pro」の2種類のMoE(混合エキスパート)モデルをオープンソースでプレビュー公開しました。両モデルとも100万トークンのコンテキストウィンドウを持ち、コーディングベンチマークではClaude Opus 4.6を上回るとされています。特にV4 Proは入力100万トークンあたり0.145ドルという驚異的な低価格設定で、フロンティアモデルとの性能格差をほぼ解消しながらコストは数十分の一という位置付けです。
MoEアーキテクチャ(Mixture of Experts)は、大規模モデルの一部のパラメータのみを各推論ステップで活性化する手法で、計算効率と性能を両立できる構造です。DeepSeekは昨年のR1リリースでも高い費用対効果を示しており、V4はその路線をさらに推し進めたモデルです。コーディング能力を中心にGPT-5.4やClaude Opus 4.6と肩を並べる水準に達したとされており、開発者コミュニティからの注目度は特に高くなっています。
開発者コミュニティの反応も熱狂的で、X上では「フロンティアレベルの性能をフロンティア価格の数分の一で手に入れられる」という点がAIコスト民主化の象徴として歓迎されました。Redditでは「DeepSeek R1以来の最も期待されたリリース」として高い評価が寄せられる一方、米国のIP(知的財産)窃取疑惑やOpenAIデータの無断利用(Distillation)問題への懸念も依然根強く議論されています。Hacker Newsでは複数のスレッドが高評価を獲得し、「Opus 4.6よりも優れたコーディング性能をはるかに低コストで」という評価が繰り返し言及されました。
中国発のオープンソースモデルがフロンティアモデルと同等の性能を低コストで提供するという構図は、AI開発の地政学的な競争軸を一層複雑にしています。性能と透明性・信頼性のバランスをどう評価するかが、実際の採用判断の分かれ目になりそうです。