← 2026-03-12
Open Source Community 2026-03-12 Source →

オープンソースLLMとクローズドLLMの性能差がほぼゼロに―17.5ポイント差から2年で逆転劇

2023年末には17.5ポイントあったオープンソースLLM(大規模言語モデル)とクローズドモデルの性能差が、2026年初頭にはほぼゼロになったことが複数のベンチマーク調査で明らかになりました。知識ベンチマークでは完全に差がなくなり、推論タスクでも一桁の差にまで縮小しています。

この劇的な変化を牽引しているのは、DeepSeek-V3.2やGLM-5、Qwen3-Maxといった中国発のオープンソースモデルです。DeepSeek-V3.2はMMLU(大規模多タスク言語理解)で94.2%を達成し、プロプライエタリモデルと事実上同等の性能を示しています。コーディング分野でもGLM-5(Reasoning)がクローズドモデルに匹敵する性能を発揮。さらにQwen3-Maxは「Thinking Mode」を有効にするとMATH-500で97.8%を記録し、純粋な論理タスクではDeepSeekをも上回りました。r/LocalLLaMAでは「デプロイのトレードオフは残るが、性能差は解消された」との評価が広がっており、Hacker Newsでも「DeepSeek-V3.2、GLM-5などが先頭を走る」との分析が共有されています。

市場シェアの観点でも大きな変化が起きています。2023年時点でクローズドソースが80〜90%を占めていた市場は、2026年には50対50の均衡に向かうと予測されています。オープンソースとクローズドソースの「能力の差」はほぼ消滅しましたが、デプロイメントのトレードオフ(インフラコスト、運用負荷、サポート体制など)は依然として残っており、企業は自社の要件に応じた選択を迫られることになりそうです。

関連リンク