2026年初頭、オープンソースLLMとプロプライエタリモデルの性能差が劇的に縮小しています。知識ベンチマークでは差がゼロに、推論タスクでも一桁台のパーセンテージまで縮まっており、2025年がオープンソースLLMの転換点だったと言えるでしょう。
この変化を牽引しているのは5つの独立したオープンモデルファミリーです。DeepSeek、Qwen、Kimi、GLM、Mistralが同時期にフロンティア品質に到達したことで、この傾向は一過性ではなく構造的なものとなっています。DeepSeek-V3.2はMMLUで94.2%を達成しGPT-4oと同等の性能を示し、効率的なMoEアーキテクチャを採用してMITライセンスで完全公開されています。Qwen 3.5は397BのMoEモデルをApache 2.0ライセンスで提供し、256Kのネイティブコンテキスト、201言語対応、数学ビジョンベンチマークでGPT-5.2を上回るビジョン能力を備えています。GLM-5はSWE-Bench Verifiedで77.8%を記録し、DeepSeek V3.2-Specialeと並んでオープン・クローズド全モデル中トップのコーディング性能を示しています。
Redditのr/LocalLLaMAでは「ローカル実行の実用性が大幅に向上した」との喜びの声が上がる一方、Hacker Newsでは「能力のギャップは埋まったが、デプロイメントのトレードオフは依然存在する」との冷静な分析も見られます。
DeepSeekとQwenは現在、グローバルAI市場の15%を占めており、これは1年前の1%から急成長した数字です。月間500万〜1000万トークン以上を処理する場合、オープンモデルのセルフホスティングは経済的に有利となり、企業のAI戦略に大きな影響を与えています。