NVIDIAが「Nemotron 3 Super」をオープンウェイトでリリースしました。総パラメータ数1200億(アクティブパラメータ120億)のMoE(混合エキスパート)モデルで、MambaとTransformerのハイブリッドアーキテクチャ、100万トークンのコンテキストウィンドウを採用しています。Hugging Face・Perplexity・OpenRouterで即日公開され、AIコーディングエージェントのCodeRabbitやFactoryにもすでに統合が確認されています。
Nemotron 3 SuperはトランスフォーマーにMamba(状態空間モデル、SSM)を組み合わせたハイブリッド構造を採用しています。Mambaは系列長が長い場合に通常のTransformerより計算効率が高いとされており、100万トークンのコンテキストを扱う際のリソース効率向上に貢献しています。アクティブパラメータ120億で1200億相当の知識を活用できるMoE設計との組み合わせにより、「大モデルの知識量+中モデルの実行速度」を両立することを狙っています。X上ではこのアーキテクチャへの技術的関心が高く、効率性のベンチマーク比較を求める声が相次ぎました。
r/LocalLLaMAでは、100万トークンコンテキストをローカル環境で実際に試した報告が続いており、長大なコードベースの一括解析などの用途への期待が膨らんでいます。一方Hacker Newsでは「NVIDIAがモデル自体を公開することで自社GPU需要を喚起する戦略」という分析が注目を集めました。モデルを無償提供してエコシステムを育てることで、推論・ファインチューニングに使われるGPUの需要を間接的に押し上げるという読みです。
コーディングエージェントへの即時統合は、オープンモデルが商用AIツールのバックエンドとして実用展開される速度が上がっていることを示しています。オープンウェイトかつ商用利用可能なライセンスとの組み合わせにより、企業が自社インフラ上にデプロイしてデータを外部に出さずに利用するケースも増えそうです。