NVIDIAが2026年後半に出荷予定の次世代AIプラットフォーム「Vera Rubin」を発表しました。現行のGrace Blackwellプラットフォームと比較して、ワットあたり10倍の性能向上と、MoE推論におけるトークンコスト最大1/10という驚異的な効率改善を実現しています。
Vera Rubinプラットフォームは、ハードウェアとソフトウェアの極限的なコデザインにより、Blackwellと比較してMoEモデルの学習に必要なGPU数を1/4に削減し、幅広いモデルにおける推論トークンコストを最大1/10に低減します。各Rubin GPUはNVFP4データ型で50PFLOPSの推論性能を発揮し、これはBlackwell GB200の5倍に相当します。学習性能も35PFLOPS(Blackwellの3.5倍)を実現しています。
X上では「10倍の電力効率向上はデータセンターのコスト構造を根本から変える可能性がある」と期待の声が上がっています。Hacker Newsでもジェンスン・ファン(Jensen Huang)CEOによるGTC 2026での詳細ロードマップ発表に注目が集まっており、AWS、Microsoft Azure、Google Cloudなど主要クラウドプロバイダーが2026年後半からの導入を予定していることも話題となっています。
AIモデルの大規模化が進む中、電力消費とコストの問題は業界全体の課題となっています。Vera Rubinの登場により、より多くの企業がフロンティアモデルの学習・推論に参入できる環境が整うことが期待されます。3月に予定されているGTC 2026での詳細発表が待たれます。
| - [First look at Nvidia's AI system Vera Rubin | CNBC](https://www.cnbc.com/2026/02/25/first-look-at-nvidias-ai-system-vera-rubin-and-how-it-beats-blackwell.html) |
|---|---|
| - [NVIDIA Kicks Off the Next Generation of AI With Rubin | NVIDIA](https://nvidianews.nvidia.com/news/rubin-platform-ai-supercomputer) |