中国AI企業DeepSeekは、最新モデル「DeepSeek V3.2」をMITライセンスで公開しました。6710億パラメータの巨大モデルながら独自の疎な注意機構「DSA(DeepSeek Sparse Attention)」などの技術革新により、GPT-5と同等の性能を大幅に低いコストで実現しています。特に高計算力バリアントの「DeepSeek-V3.2-Speciale」は、2025年国際数学オリンピック(IMO)で42点満点中35点という金メダル相当のスコアを達成し、国際情報オリンピック(IOI)でも金メダルに相当する成績を収めました。
DeepSeek V3.2の大きな特徴のひとつが、強化学習(RL)をプレトレーニングの10%以上に相当するコンピュートを費やして徹底的に実施した点です。これにより、アーキテクチャ的な革新だけでなく後学習(ポストトレーニング)の質が飛躍的に向上し、数学・コーディング・推論などの難問への対応力が高まりました。標準バリアントのV3.2はツール利用(ファンクションコーリング)を思考モードと非思考モードの両方でサポートし、実際の開発現場での利用を意識した設計になっています。一方、Speciale は深い推論タスクに特化しており、ツール呼び出し機能は非対応です。MITライセンスでの公開は商用利用・改変・再配布をほぼ制限なく認めており、エンタープライズ向け自社展開からスタートアップのプロダクト組み込みまで幅広い活用が期待されます。
Xでは「コンピューティング覇権への直接の挑戦」と称され、オープンウェイトモデルがついにクローズドモデルの堀を突破したとする議論が沸騰しました。r/deepseekの分析(46,649件の投稿)では肯定的な反応が最多を占めた一方、中国サーバーへのデータ保存に関するプライバシー懸念も頻繁に言及されました。Hacker Newsでは「AIアクセシビリティの本当の変曲点」と評価される一方、単純なCRUDタスクでも「過剰推論」が発生してトークン消費量が増えるという実用上の問題を指摘する声もありました。
GPT-5同等の能力をMITライセンスで誰でも利用できる形で公開したインパクトは大きく、AIの民主化が一段と進んでいます。クローズドモデルとの「価格競争」ではなく「アクセス競争」という新たな軸で、オープンウェイトモデルが産業利用の中心に入り込んでいく流れが鮮明になっています。プライバシー懸念の払拭と自社インフラへの移行が進めば、企業の本格採用がさらに加速するでしょう。
| - [DeepSeek V3.2: Open-Source Reasoning at Gold Medal Level | E2E Networks](https://www.e2enetworks.com/blog/deepseek-v3-2-open-source-reasoning) |
|---|---|
| - [DeepSeek-V3.2 Matches GPT-5 at 10x Lower Cost | Introl](https://introl.com/blog/deepseek-v3-2-open-source-ai-cost-advantage) |