← 2026-03-02
Open Source Community 2026-03-02 Source →

DeepSeek-V3.2がGPT-5と同等の数学性能を達成、MITライセンスで685Bパラメータモデルを公開

中国のAI企業DeepSeekは、685Bパラメータの大規模言語モデル「DeepSeek-V3.2」をMITライセンスで公開しました。同モデルは従来のV3とR1シリーズを統合し、長文コンテキスト処理とツール使用に最適化されています。特に数学推論においてはAIME 2026で94.17%、HMMT Feb 2026で84.09%を達成し、OpenAIのGPT-5に匹敵する性能を示しています。

DeepSeek-V3.2の技術的な特徴として、「DeepSeek Sparse Attention(DSA)」と呼ばれる効率的な注意機構が挙げられます。これにより計算複雑性を大幅に削減しながらも性能を維持することに成功しています。同モデルは2025年の国際数学オリンピック(IMO)と国際情報学オリンピック(IOI)でゴールドメダルを獲得しており、理論的な数学問題への対応能力の高さを証明しています。さらに、より深い推論タスクに特化した「DeepSeek-V3.2-Speciale」はGPT-5を上回り、Gemini-3.0-Proと同等の推論能力を発揮するとされています。

コスト面でも大きな優位性があります。Introl社の分析によると、10万トークンの入出力処理において、DeepSeekでは約0.07ドル、GPT-5では約1.13ドルと、およそ16倍の価格差が存在します。キャッシュを活用した高負荷ワークロードでは、この差は最大31倍にまで広がります。X(旧Twitter)では「AIには多くの資金と電力が必要という業界ナラティブを吹き飛ばした」と称賛する声が上がっており、r/LocalLLaMAでもMITライセンスでの公開を「オープンソースがプロプライエタリに追いつく転換点」と歓迎する反応が見られます。

MITライセンスによる完全なオープンソース化は、企業がオンプレミスで展開し、機密データを外部APIに送信せずに処理できることを意味します。データ主権の確保とコスト削減を同時に実現できるこのアプローチは、特にエンタープライズ環境での採用を加速させる可能性があります。フロンティアモデルの民主化が進む中、商用モデルとオープンソースモデルの競争は新たな段階に入ったと言えるでしょう。

関連リンク