← 2026-03-03
Open Source Community 2026-03-03 Source →

DeepSeek V3.2がGPT-5レベルの推論性能を達成、671Bパラメータのオープンソースモデルを公開

中国のAIスタートアップDeepSeekが、GPT-5に匹敵する推論性能を持つオープンソースモデル「DeepSeek-V3.2」を公開しました。特にハイコンピュート版の「DeepSeek-V3.2-Speciale」は、複数の国際競技で金メダルレベルの成績を収めており、Gemini 3.0 Proと同等の性能を発揮しています。

DeepSeek-V3.2は、2025年アメリカ招待数学試験(AIME)で96.0%のスコアを達成し、GPT-5 Highの94.6%を上回りました。さらに国際数学オリンピック(IMO)、中国数学オリンピック(CMO)、国際大学対抗プログラミングコンテスト(ICPC)、国際情報オリンピック(IOI)の2025年大会すべてで金メダルレベルの成績を収めています。コスト面でも注目されており、100万トークンあたり0.028ドルという価格はGPT-5の約10分の1です。

DeepSeekは671Bパラメータのモデル全体をMITライセンスでオープンソース化し、十分な計算リソースがあれば誰でもフロンティアクラスのAI性能を利用できるようにしました。モデルファイルはHugging Faceからダウンロード可能ですが、高計算量版のDeepSeek-V3.2-SpecialeはDeepSeekのAPIからのみ利用できます。

X上では「V3.2でGPT-5 HighやGemini 3 Proに匹敵する性能なのに、これはまだ3.5ですらない」と驚きの声が上がっています。Redditのr/LocalLLaMAでは、オープンソースによるAIの民主化を歓迎する声とともに、ローカル環境での実行への期待が高まっています。プロプライエタリモデルに匹敵するオープンソースモデルの登場は、AI業界の競争構図を大きく変える可能性があります。

関連リンク