NVIDIAがCES 2026で次世代AIプラットフォーム「Vera Rubin」を発表しました。Rubin GPU(H300)、Vera CPU、HBM4メモリ、NVLink 6を統合したラックスケールシステムで、Blackwellアーキテクチャと比較して推論トークンコストを10分の1に削減し、1兆パラメータ規模のモデルに対応します。
Tom's Hardwareによると、Vera Rubin NVL72は72基のGPUと36基のCPUを搭載し、260TB/sのスケールアップ帯域幅を実現しています。性能面ではNVFP4推論で50PFLOPs、NVFP4トレーニングで35PFLOPsを達成し、それぞれBlackwellの5倍と3.5倍の性能向上を記録しています。メモリ面でもHBM4を採用し、GPU当たり最大288GB、メモリ帯域幅は最大22TB/sとBlackwellの約3倍に達します。MoEモデルのトレーニングではGPU使用数を4分の1に削減できるとされています。
CEOジェンスン・フアン氏はキーノートでVera Rubin NVL72が本番稼働に入ったことを発表しました。2026年後半からパートナー製品として提供開始予定で、AWS、Google Cloud、Microsoft、OCIに加え、CoreWeave、Lambda、Nebius、Nscaleなども早期導入パートナーに名を連ねています。Hacker Newsでは「トークン当たり消費電力効率の向上が最重要」との分析に同意する声が多く、X上ではすでにバックオーダー状態との報告も見られます。
AIインフラの電力効率とコスト削減が競争の焦点となる中、Vera Rubinの登場は業界に大きなインパクトを与えそうです。