MetaがAI推論・訓練用の自社開発チップ「MTIA(Meta Training and Inference Accelerator)」の最新世代「MTIA 400」を全データセンターに順次展開すると発表しました。性能は商用トップ製品と競合するレベルに達しており、AI推論コストの内製化とNvidia GPUへの依存削減を明確な戦略として打ち出しています。
Metaのこの動きは決して孤立した出来事ではありません。GoogleはTPU(Tensor Processing Unit)を第6世代まで進化させ、AmazonはTrainium 2を展開中。AppleはM4チップでAI処理を内製化し、MicrosoftもMaia 100を試験運用しています。X上では「Google TPU、Amazon Trainium、Meta MTIAとシリコン内製化が加速。Nvidiaの独占がどこまで続くか」という分析投稿が多数リツイートされました。
Hacker Newsでは「内製チップへの移行は短期コストが高いが長期的にはクラウドAIコスト構造を大きく変える」という経営・技術両面からの議論が展開されました。Nvidiaに支払うGPU購入費・クラウド利用料が年間数千億円規模に達している大手テック企業にとって、内製シリコンへの投資回収は明確な経済的合理性があります。Metaの場合、Llamaシリーズのオープンソース展開で自社AIワークロードが急拡大しており、推論コスト削減のインセンティブは特に大きいといえます。
r/hardwareではMTIA 400の具体的なスペック情報を求めるスレッドが立ち上がり、リーク情報の真偽を検証する議論が盛り上がっています。公式発表では競合品と「同等水準」とされているものの、電力効率やメモリ帯域幅、特定ワークロードでの性能差といった詳細は明らかにされておらず、第三者による独立検証が待たれます。
AI処理の需要が爆発的に増加する中、GPU市場におけるNvidiaの支配的地位は依然として強固ですが、テック大手の内製化が進めば中長期的な市場構造への影響は避けられないでしょう。2026年はシリコン内製化の「実用化元年」として業界の記憶に残る年になるかもしれません。