← 2026-04-01
Open Source Community 2026-04-01 Source →

DeepSeek-V3.2公開——AIME・HMMTでGPT-5超え、コスト効率の高さで再びオープンソースLLM界を席巻

中国発のAI研究機関DeepSeekが最新モデル「DeepSeek-V3.2」を公開しました。数学的推論を測るAIME(米国数学招待試験)やHMMT(ハーバード-MIT数学トーナメント)などの主要ベンチマークでGPT-5を超え、Gemini 3.0 Proと同等水準の推論能力を示したとされています。長文コンテキスト処理とツール使用シナリオでの効率改善に重点を置いており、オープンソースLLM(大規模言語モデル)の中でもトップクラスの性能を誇る存在として注目されています。

DeepSeekはV3シリーズを通じて、フロンティアモデルに迫る性能をオープンソースで提供し続けています。V3.2の改良ポイントとして開発チームが特に強調しているのは、長文コンテキスト(長い入力文脈)への対応精度と、外部ツールと連携するエージェント的な使用シナリオでの安定性です。これらの改善は、単純な質問応答ではなく、実業務に近い複雑なタスクでの利用を見据えたものと言えます。米国の半導体輸出規制が中国のAI開発に影響を与えているとされるなか、DeepSeekが引き続き高水準のモデルを公開できていることは業界で広く注目されています。

X(旧Twitter)では「中国発オープンソースがまたフロンティアモデルに追いついた」という驚きとともに、DeepSeekのコスト効率の高さを称賛する投稿が多数拡散しています。Reddit(r/LocalLLaMa)では最も活発に議論されたモデルの一つとなっており、ローカル実行時のVRAM要件や量子化(モデルサイズを圧縮して動作させる技術)オプションについての詳細なセットアップガイドが人気を集めています。Hacker Newsでは「DeepSeekのエンジニアリングの質の高さ」を評価するコメントが目立ち、「米国の輸出規制がDeepSeekの進歩を止められていない」という現実への驚きも多くのコメントで言及されていました。

DeepSeek-V3.2は、クローズドモデルが性能面で圧倒的優位を持つという従来の見方に再び疑問を投げかけています。特にオープンソースである点は、ローカル実行・プライベートクラウドへの展開・カスタムファインチューニングといった用途での選択肢の幅を大きく広げます。クローズドとオープンソースの性能差が縮まり続けるなか、AIモデルの「所有」と「利用」のあり方をめぐる議論はますます重要になっていきそうです。

関連リンク