NVIDIAは次世代AIインフラ向けプラットフォーム「Vera Rubin」を正式発表しました。Vera CPUとRubin GPUを中心とする6種類の新チップで構成されるこのプラットフォームは、AWS・Google Cloud・Microsoft Azure・OCI(Oracle Cloud Infrastructure)が2026年後半に展開を開始する予定です。AIデータセンターの演算性能を劇的に引き上げるとされており、NVIDIAの市場支配が次世代においても続くかどうかに注目が集まっています。
NVIDIAのプレスリリースによると、Vera Rubinプラットフォームは単体チップではなく、CPU・GPU・ネットワーキング・ソフトウェア統合を一体化したシステムとして設計されています。Vera CPUはNVIDIAが独自設計したArm系プロセッサで、従来のx86ベースのサーバー構成から脱却を図ります。Rubin GPUは現行のHopper/Blackwellアーキテクチャの後継として大幅なFP8/FP16演算性能の向上が期待されています。
X上ではNVIDIAの市場支配力が継続するとの見方が優勢ですが、中国市場でのシェアが55%まで低下した点を指摘するコメントも目立ちます。これは米国政府の輸出規制強化によってH100/H200系GPUの中国向け販売が制限された結果であり、Redditでは「中国製AIチップが国内市場で41%を占め始めた」ことへの警戒感を示す議論が活発に行われています。Vera Rubinプラットフォームが中国市場でどう取り扱われるかは、NVIDIAの今後の売上予測に直結する問題です。
クラウド大手4社が2026年後半に展開を予定していることは、AIモデルのトレーニングとサービング双方のコスト変動に大きな影響を与える可能性があります。新プラットフォームへの移行コストと性能向上のトレードオフをどう見るかは、各クラウドプロバイダーの価格戦略にも波及するため、AI開発コストの今後の推移を左右する重要な動向と言えるでしょう。