中国のAI企業DeepSeekは、長文コンテキストとツール利用シナリオで効率性を向上させた「DeepSeek-V3.2」をリリースしました。推論とエージェントワークロードにおいて最高のオープンソースLLMと評価されており、MITライセンスの下で商用・学術・個人利用が無料で可能です。
DeepSeek-V3.2の最も注目すべき革新は、推論の思考プロセスとツール利用機能を有機的に統合した点です。これは思考をツール利用に直接統合した初のモデルであり、思考モードと非思考モードの両方でツール利用をサポートします。コールドスタートフェーズでは推論とツール利用を単一の軌道内で統一する手法を実装し、続いて1,800以上の異なる環境と85,000の複雑なプロンプトを生成する大規模エージェンティックタスク合成によってRLプロセスを駆動しています。
技術面では、DeepSeek Sparse Attention(DSA)という効率的なアテンションメカニズムを実装し、モデル性能を維持しながら計算複雑性を大幅に削減しています。これは特に長文コンテキストシナリオ向けに最適化されています。堅牢なRLプロトコルを実装しポストトレーニング計算をスケーリングすることで、DeepSeek-V3.2はGPT-5に匹敵する性能を発揮します。
高度な推論に特化したバリアント「DeepSeek-V3.2-Speciale」は、AIME 2025で96%、HMMT 2025で99.2%を記録し、GPT-5 HighやClaude 4.5に匹敵またはこれを上回るスコアを達成しています。IOI 2025、ICPC World Final 2025、IMO 2025、CMO 2025でゴールドメダル級のパフォーマンスを示していますが、このSpecialeバリアントはディープリーズニングタスク専用でツールコール機能はサポートしていません。オープンソースでありながらフロンティアモデルに匹敵する性能を持つDeepSeek-V3.2は、エージェンティックAIの民主化を加速させる存在と言えるでしょう。