OpenAIが「gpt-oss-120b」と「gpt-oss-20b」をApache 2.0ライセンスでオープンソース公開しました。117Bパラメータ(5.1Bアクティブ)のMoEモデルで、OpenAI o4-miniに匹敵する推論性能を単一の80GB GPU上で実現。商用利用も完全に自由です。
OpenAIは従来クローズドソースのアプローチで知られていましたが、今回のgpt-ossシリーズで大きな方針転換を示しました。gpt-oss-120bは117Bの総パラメータを持ちながら、MoE(Mixture of Experts)アーキテクチャにより実際にアクティブになるのは5.1Bパラメータのみ。これにより、NVIDIA H100やAMD MI300Xなどの単一80GB GPUで効率的に動作します。
ライセンスは柔軟なApache 2.0を採用しており、コピーレフト制限や特許リスクなしに自由に構築できます。実験、カスタマイズ、商用デプロイメントに最適で、企業での採用障壁を大幅に下げています。
性能面では、コア推論ベンチマークでOpenAI o4-miniとほぼ同等の性能を達成。同サイズのオープンモデルと比較して推論タスクで優れた性能を示し、強力なツール使用能力も備えています。
小型版のgpt-oss-20bは16GBのメモリ内で動作し、コンシューマーグレードのハードウェアでも利用可能です。両モデルともMXFP4量子化を用いたポストトレーニングが施されており、効率的なデプロイメントに最適化されています。
Hugging Face、GitHub、OpenAI API、OpenRouter、Oracle Cloud、NVIDIA NIM、Replicateなど、多数のプラットフォームで利用可能です。