← 2026-02-28
Open Source Community 2026-02-28 Source →

DeepSeek-V3.2、LiveCodeBenchで90%達成しオープンソースコーディングLLMの頂点に

中国のAI企業DeepSeekが、DeepSeek-V3とR1シリーズを統合した最新モデル「DeepSeek-V3.2」をMITライセンスでオープンソース公開しました。671億パラメータの大規模モデルでありながら、フロンティア級のAI性能を誰でも利用可能にした点で注目を集めています。

Introl Blogによると、DeepSeek-V3.2は推論品質と計算効率の両立を実現しています。特にコーディングタスクに強く、DeepSeek V3.2 Specialeバージョンは LiveCodeBenchで90%という驚異的なスコアを達成し、2026年2月時点でオープンソースコーディングLLMの中でトップクラスの位置を確保しています。標準版でもLiveCodeBench 83.3%を記録し、GPT-5の84.5%に肉薄する性能です。

技術的な特徴として、長文脈シナリオに最適化された「DeepSeek Sparse Attention(DSA)」という効率的なアテンション機構を導入しています。これにより計算複雑性を大幅に削減しながらモデル性能を維持しています。X上では「フロンティア推論品質と効率性の両立を実現」との技術評価が寄せられています。

オープンソースLLM市場ではMeta Llama、Mistral、Qwenなどと激しい競争が続いていますが、DeepSeekは積極的な技術公開とベンチマーク性能の高さで独自のポジションを確立しつつあります。エージェントワークロードやツール使用シナリオにも最適化されており、実用的な開発ユースケースでの採用拡大が期待されます。

関連リンク