NVIDIAはGTC 2026(2026年3月11日)でオープンウェイトモデル「Nemotron 3 Super」を発表しました。1,200億パラメータのハイブリッドMamba-Transformer MoE(混合エキスパート)アーキテクチャながら実稼働パラメータは120億と軽量で、コンテキストウィンドウは最大100万トークン、スループットはGPT-OSS-120Bの2.2倍を実現しています。実際のGitHubイシューへの対応能力を測るSWE-Bench Verifiedでは60.47%を達成し、オープンウェイトモデルの中でトップのコーディング性能を示しました。
Nemotron 3 Superの技術的な核心は、状態空間モデル(Mamba)・Transformer・独自の「LatentMoE」という3つのアーキテクチャを組み合わせたハイブリッド設計にあります。LatentMoEはトークンを潜在空間に圧縮してからルーティングする新しいエキスパート選択機構で、同じ計算コストで4倍のエキスパートを活性化できます。また、Multi-Token Prediction(MTP)によって複数の次トークンを並列予測する機構が組み込まれており、Speculative Decodingの効果で実推論速度が最大3倍向上します。NVIDIAはプレトレーニングで使用した10兆トークン超のデータセット、強化学習用の15種類のトレーニング環境、評価レシピを含む手法全体をオープンに公開しており、研究コミュニティへの透明性も高めています。早期採用企業にはPerplexity・CodeRabbit・Factory・Palantir・Cadence・Dassault Systèmesなど、エンタープライズ向けインフラや工学ツールを手がける企業が名を連ねています。
Xでは「エンタープライズ向けオープンウェイトモデルの決定版」と称賛が相次ぎ、ローカル展開でAPIコストをゼロにできる点が開発者から特に歓迎されました。GTC 2026のRedditのコメントでは「主役がベンチマーク発表ではなく企業向けエージェント展開事例だった」という点に注目が集まり、「AIが実証段階から本番稼働に移行した」という声が多く上がりました。Hacker Newsでは「NVIDIAがチップだけでなくモデルでも主導権を握ろうとしている」とする分析が展開され、AIサプライチェーン全体を垂直統合する戦略への注目が高まっています。
SWE-Benchで60%を超えるということは、コーディングエージェントが実際のGitHubイシューの過半を人手なしに解決できる水準に達しつつあることを意味します。オープンウェイトでこの性能が実現したことで、クラウドAPIに頼らずに自社インフラ上でエンタープライズグレードのコーディングエージェントを構築できる環境が整いつつあります。NVIDIAがモデルとハードウェアの両面から企業AI展開を支援する体制を強化する中、ソフトウェア開発の自動化はいよいよ現実のものとなってきました。
| - [Introducing Nemotron 3 Super | NVIDIA Technical Blog](https://developer.nvidia.com/blog/introducing-nemotron-3-super-an-open-hybrid-mamba-transformer-moe-for-agentic-reasoning/) |
|---|---|
| - [New NVIDIA Nemotron 3 Super Delivers 5x Higher Throughput | NVIDIA Blog](https://blogs.nvidia.com/blog/nemotron-3-super-agentic-ai/) |