← 2026-03-04
Open Source Community 2026-03-04 Source →

DeepSeek-V3.2がオープンソース推論モデルの頂点に - GPT-5を上回る性能をMITライセンスで公開

中国・杭州拠点のAIスタートアップDeepSeekが公開した「DeepSeek-V3.2」が、オープンソース推論モデルとしてトップの座を獲得しました。MITライセンスで公開されており、商用利用も自由に可能です。

DeepSeek-V3.2は約6710億パラメータの総容量を持つMixture-of-Expertsトランスフォーマーで、トークンあたり約370億パラメータをアクティブ化します。特筆すべきは「Sparse Attention」アーキテクチャの導入で、長文コンテキスト処理における計算コストを大幅に削減しながら、密なアテンションに近い精度を維持しています。高負荷版の「DeepSeek-V3.2-Speciale」は、複数の推論ベンチマークでGPT-5を上回り、Gemini-3.0-Proと同等の性能を示しています。

推論タスクとエージェントワークロードに最適化されており、長文コンテキストやツール使用シナリオで効率的なフロンティア品質の推論を実現します。Redditでは「セルフホスト派に人気で、ファインチューニングの柔軟性が評価されている」との声があり、Hacker Newsでも「推論タスクでのコストパフォーマンスの高さ」が話題となっています。

モデルの重みはHugging Faceで自由にダウンロード可能ですが、フル685Bモデルの実行には強力なハードウェアが必要です。多くのユーザーにとっては、コミュニティ運営のAPIやクラウドプラットフォーム経由でのアクセスが現実的な選択肢となるでしょう。

関連リンク