NVIDIAは「National Robotics Week 2026」に合わせて、物理AIモデル「Isaac GR00T」のオープンソース版を公開しました。自然言語による命令でロボットが複雑な多段階タスクを実行できるようにするモデルで、Cosmosワールドモデルを活用した合成データ生成機能との組み合わせにより、ロボット学習の効率化を大幅に実現します。
Isaac GR00Tの核心は、自然言語命令と物理的なロボット動作を橋渡しする視覚言語行動モデル(VLA: Vision-Language-Action model)です。ロボットに対して「テーブルの上のコップを棚に移して」と言葉で指示するだけで、カメラ映像を解析しながら把持・移動・配置といった多段階の動作を自律的に実行できます。
もう一つの注目点がCosmosワールドモデルとの統合です。実際のロボットで学習データを収集するには膨大な時間とコストがかかりますが、Cosmosが生成するリアルな物理シミュレーション映像を「合成データ」として使うことで、実世界での試行錯誤を大幅に減らすことができます。r/MachineLearningとロボティクスコミュニティでは早速この合成データ生成への関心が高まっており、実際の実装事例の共有が始まっています。
X上では「NVIDIAの物理AI戦略の本格始動」として注目を集めており、Boston DynamicsやFigureといった物理AIプレイヤーとの競合関係についての議論も見られます。Hacker Newsでは「NVIDIAがGPUチップの販売だけでなく、ソフトウェアプラットフォームによる囲い込みを本格的に図っている」という戦略的分析が高い評価を得ており、ハードウェアメーカーがソフトウェアエコシステムを掌握するというNVIDIAの長期戦略が改めて浮き彫りになっています。
ロボティクス分野では自律動作の「汎化能力」——見たことのない環境や物体にも対応できること——が最大の課題です。GR00Tがオープンモデルとして公開されたことで、研究者や企業がカスタマイズ・改良しやすい環境が整い、この分野の進化が加速することが期待されます。