中国のAI研究機関DeepSeekは、最新モデル「DeepSeek V3.2」(6,850億パラメータ)をMITライセンスでオープンソース公開しました。新たに採用した「DeepSeek Sparse Attention(DSA)」アーキテクチャにより長文推論コストを約70%削減したとされており、クローズドソースの最新フロンティアモデルに匹敵する性能を、推定25〜30倍低いコストで実現できると評価されています。特にAPI限定で提供される「V3.2 Speciale」版は、国際数学オリンピック(IMO)・IOI・ICPCといった著名な競技プログラミング・数学コンテストの評価指標でGPT-5を上回るスコアを記録したと報告されています。
DeepSeek V3.2の公開が業界に与えるインパクトは、単純な性能比較以上のものがあります。Hacker Newsでは「オープンウェイトモデルがクローズドフロンティアを突破した歴史的瞬間」として高評価を集め、「第二のDeepSeekモーメント」(2025年初頭のDeepSeek R1公開時に生じた業界激震の再来)と称する声がRedditのr/LocalLLaMAに溢れました。
MITライセンスでの公開は、MetaのLlama 4が欧州ユーザーへのライセンス適用除外などの制限を設けているのとは対照的で、X(旧Twitter)では両者のライセンス方針の違いを比較する投稿が多数拡散しています。「中国企業がより制限の少ないライセンスで685Bモデルを公開した」という事実は、西側AI企業のオープンソース戦略に対する批判とともに語られています。
一方で、r/LocalLLaMAでは実用上の懸念も率直に議論されています。685Bという規模のモデルを全量でローカル実行するには、相当高スペックのハードウェア(高メモリ容量のGPUクラスタ等)が必要であり、個人・中小規模での利用には依然として高いハードルが存在します。また「思考トークンの過剰生成が発生するケースで、コスト優位性が損なわれる」という実測報告も上がっており、ユースケースによってはコスト削減効果が期待通りにならない場合があることも指摘されています。
DeepSeekのリリースが示すのは、AI業界における「オープン vs クローズド」という二項対立が一段と複雑になっているという現実です。最先端の性能を持つ大規模モデルが完全オープンライセンスで利用できる時代が到来したことは、企業のAI調達戦略とビルド/バイの判断基準を根本から問い直す契機となりそうです。