中国のAI企業DeepSeekが「DeepSeek-V3.2」をリリースし、高計算バージョン「DeepSeek-V3.2-Speciale」がGPT-5やGemini-3.0-Proを複数の推論ベンチマークで上回りました。特にAIMEでは96.0%のパス率を達成し、GPT-5-Highの94.6%、Gemini-3.0-Proの95.0%を超える結果となっています。
V3.2の最大の特徴は「エージェントファースト」設計です。DeepSeekは1,800以上の環境と85,000以上の複雑な指示をカバーする大規模なエージェント学習データ合成パイプラインを開発しました。これにより、モデルはツール使用時にも思考プロセスを統合でき、思考モードと非思考モードの両方でツール呼び出しをサポートします。IMO(国際数学オリンピック)、CMO、ICPC World Finals、IOI 2025でゴールドレベルの結果を達成しており、GitHub PRの自動投稿やデバッグといったエージェントタスクのデモが話題を呼んでいます。
X上では「オープンウェイトモデルがクローズドモデルの堀を突破した」と評価される一方、Redditのr/LocalLLaMAコミュニティではコストパフォーマンスを絶賛する声がある半面、データ収集や中国サーバー経由の問題を懸念するユーザーもいます。
2026年に向けた開発トレンドとして、推論中心の開発、DeepSeek Sparse Attentionなどの効率最適化技術、そしてエージェントファースト設計が挙げられています。オープンソースモデルとプロプライエタリモデルの性能差が縮小し続ける中、DeepSeek V3.2はその象徴的な存在となっています。