← 2026-03-06
Open Source Community 2026-03-06 Source →

OpenAI GPT-oss、2019年以来初のオープンソースモデルをApache 2.0で公開―o4-mini級の性能も多言語対応に課題

OpenAIは、2019年以来初となるオープンソースモデル「gpt-oss-120b」と「gpt-oss-20b」をApache 2.0ライセンスで公開しました。120Bモデルはo4-miniと同等以上の性能を持ち、20Bモデルは16GBのメモリで動作可能と、開発者にとって幅広い選択肢を提供します。ただし、多言語推論(41.8%)やクリエイティブライティングでは競合に劣るとの評価も出ています。

gpt-oss-120bは117億パラメータ(トークンあたり51億をアクティブ化)、gpt-oss-20bは21億パラメータ(トークンあたり36億をアクティブ化)という構成です。OpenAIによれば、120BモデルはCodeforces(競技プログラミング)、MMLU(一般問題解決)、TauBench(ツール呼び出し)でo3-miniを上回り、o4-miniと同等以上の結果を達成しています。重みはHugging Faceで無料公開されており、MXFP4でネイティブに量子化されているため、120Bモデルは80GB、20Bモデルはわずか16GBのメモリで動作します。Azure、AWS、Cloudflare、Together AIなど主要なデプロイメントプラットフォームとも提携しています。

Allen Institute for AIは「オープンエコシステムにとって素晴らしい一歩」と高く評価しています。一方で、Redditでは「訓練タスクには強いが、それ以外は弱い」という批判も見られます。研究者の分析によれば、合成データ中心の訓練により数学やコーディングには優れているものの、クリエイティブライティング、一般的な世界知識、多言語推論では他のフロンティアモデルに劣るとのことです。特に中国語タスクでは45%未満の精度にとどまっており、多言語対応の弱さが浮き彫りになっています。

GPT-ossはコード生成、構造化された推論、英語での処理に最適化されたモデルです。OpenAIが長らく閉じていたモデルを公開した意義は大きく、オープンソースAIコミュニティの活性化が期待されます。

関連リンク

- [Introducing gpt-oss OpenAI](https://openai.com/index/introducing-gpt-oss/)
- [gpt-oss-120b & gpt-oss-20b Model Card OpenAI](https://openai.com/index/gpt-oss-model-card/)
- [openai/gpt-oss-120b Hugging Face](https://huggingface.co/openai/gpt-oss-120b)