OpenAIが同社初となる本格的なオープンウェイト言語モデル「gpt-oss-120b」および「gpt-oss-20b」を公開しました。Apache 2.0ライセンスで商用利用も可能となり、オープンソースLLM市場への本格参入となります。
gpt-oss-120bは1170億パラメータを持つMixture-of-Experts(MoE)アーキテクチャを採用し、トークンあたり51億パラメータのみをアクティブ化することで、単一の80GB GPUで動作可能な効率性を実現しています。OpenAIによると、競技コーディング、一般的な問題解決、ツール使用において、同社のo3-miniを上回り、o4-miniと同等以上の性能を発揮します。特に健康関連のクエリと競技数学ではo4-miniを超える結果を示しています。
トレーニングにはo3などの最先端内部モデルから得られた知見を活用した強化学習が使用されており、推論負荷を低(low)・中(medium)・高(high)から選択できる設定可能な推論機能も搭載されています。r/LocalLLaMAでは「OpenAIのオープンソース化を歓迎する」声が多数上がっており、Hacker Newsでも「商用利用可能な点が評価されるが、実際の性能検証が待たれる」との反応が見られます。
モデルはHugging FaceとGitHubで公開されており、Google CloudのVertex AIでも利用可能です。OpenAIがこれまで閉じたモデル戦略を取ってきたことを考えると、今回のオープンソース参入は業界の競争環境を大きく変える可能性があります。