OpenAIは「gpt-oss-120b」と「gpt-oss-20b」の2つのオープンウェイト推論モデルをApache 2.0ライセンスで公開しました。2019年のGPT-2以来となる完全オープン化であり、AI業界に大きな衝撃を与えています。
OpenAIの公式発表によると、gpt-oss-120bは総パラメータ数1,170億、トークンあたり51億パラメータをアクティベート。gpt-oss-20bは総パラメータ数210億、トークンあたり36億パラメータをアクティベートします。両モデルはMixture-of-Experts(MoE)アーキテクチャを採用し、密なアテンション層と局所的なスパースアテンションパターンを交互に配置することで効率性を実現しています。
性能面では、gpt-oss-120bがコア推論ベンチマークでOpenAI o4-miniとほぼ同等の結果を達成し、単一の80GB GPUで動作可能です。gpt-oss-20bはo3-miniと同等のスコアを記録し、わずか16GBメモリのエッジデバイスでも実行できます。モデルはHugging Faceで無償公開されており、ネイティブでMXFP4量子化が適用されています。
訓練にはo3やその他のフロンティアシステムを含むOpenAIの最先端内部モデルから得られた知見と、強化学習技術が組み合わされています。Google CloudのVertex AIでも利用可能となっており、エンタープライズ環境での採用が進んでいます。
Hacker Newsでは「GPT-2以来のオープンウェイト公開は歴史的」との評価が相次ぎ、Redditでは早期導入者からの好評に加え、Snowflakeなど大手企業の採用表明も報告されています。オープンソースコミュニティからのフィードバックを取り入れて開発されたという点も、OpenAIの方針転換として注目されています。
| - [Introducing gpt-oss | OpenAI](https://openai.com/index/introducing-gpt-oss/) |
|---|---|
| - [gpt-oss-120b & gpt-oss-20b Model Card | OpenAI](https://openai.com/index/gpt-oss-model-card/) |
| - [openai/gpt-oss-120b | Hugging Face](https://huggingface.co/openai/gpt-oss-120b) |