← 2026-04-02
Open Source Community 2026-04-02 Source →

NVIDIAがNemotron 3ファミリー発表 — 1,200億パラメータMamba-Transformerハイブリッドがスループット2.2倍を実現

NVIDIAがエージェントAI向けの新世代オープンモデルファミリー「Nemotron 3」を発表しました。Nano・Super・Ultraの3モデルで構成され、主力のSuperは1,200億パラメータを持つMamba-Transformerハイブリッドアーキテクチャを採用。同規模のGPT-OSS-120Bと比較してスループットが2.2倍に達するとされており、2026年前半の提供開始が予定されています。

ハードウェア企業がモデルを作る理由

GPUメーカーが独自の言語モデルを開発・公開するというのは、数年前には考えにくい動きでした。しかし今や「ハードウェアの性能を最大限に引き出すソフトウェアスタックを自社で握る」という戦略は、NVIDIAにとって自然な選択です。Nemotron 3はNVIDIAのGPU上で特に高い効率を発揮するよう最適化されており、自社ハードウェアの魅力を高める補完戦略としての側面があります。

技術的なハイライトはMamba-Transformerハイブリッドアーキテクチャです。Mamba(状態空間モデル)は長文処理において標準Transformerより計算効率が高く、1Mトークンのコンテキストウィンドウをサポートしながら推論コストを抑えることが可能です。有効パラメータ数は120億と、1,200億の全パラメータ数より実際の推論負荷ははるかに小さい設計になっています。

Hacker Newsでは、MambaとTransformerを組み合わせたハイブリッドアーキテクチャのスループット改善に関する技術的詳細への関心が高く、「推論コスト削減の実測値を出してほしい」という声が多数上がっています。X上では「NVIDIAが自社GPU以外でも動作するオープンモデルを推進する」ことへの驚きと「ハードウェア販売の補完戦略」という見方が交錯しています。

120Bモデルを動かすには

r/MachineLearningでは実用面への関心が高く、120B規模のモデルを実際に動作させるために必要なVRAM要件や推奨ハードウェア構成についての議論が展開されています。ハイブリッドアーキテクチャの効率化があるとはいえ、個人や中小規模の開発環境での運用は依然として容易ではありません。企業向けの推論最適化ソリューションと組み合わせることが、実用化の現実的なルートになりそうです。

エージェントAIの台頭とともに、「速く・安く・賢い」推論モデルへの需要は急増しています。NVIDIAがハードウェア販売に留まらず、モデルそのものでも存在感を示し始めたことは、AI産業の新たな競争軸の形成を示唆しています。

関連リンク