MetaはMTIA(Meta Training and Inference Accelerator)400をデータセンター全体に展開中であると発表し、後継モデルのMTIA 450および500を2027年末までに大量展開する計画を明らかにしました。自社開発カスタムシリコンへの継続的な投資により、NVIDIAへの依存度低減と推論コスト削減を本格化させる戦略を打ち出しています。
MTIA 400はMetaが自社のAIワークロード、特に推論処理に最適化して設計したカスタムチップです。Llama系のオープンモデルやFacebook・Instagram・WhatsAppといった自社プラットフォームで大量に処理される推薦システム・コンテンツフィルタリングに特化した設計がなされており、汎用GPUと比較してTCO(総保有コスト)の削減が見込まれています。GoogleのTPUやAmazonのTrainium・Inferentiaと同様に、大規模なAI推論を抱えるBig Techが独自シリコンへの投資を加速している流れの一部です。2027年に予定されるMTIA 450・500では、さらに性能と電力効率が改善される見通しです。
X上では「BigTechが独自チップ路線を本格化している」という評価とともに、NVIDIAの優位性がどこまで続くかについての議論が活発でした。Redditでは、MetaのカスタムシリコンがLlama系モデルの推論コストにどう影響するかという実用的な視点からの意見が目立ちました。Hacker NewsではカスタムAIシリコンのTCO比較と汎用GPUとの性能トレードオフについての詳細な技術考察が行われています。
カスタムAIシリコンへの移行は短期的なコスト削減以上の意味を持ちます。特定ワークロードへの最適化により電力効率を高めることは、データセンターの電力制約が厳しくなる中での持続可能なスケールアップに直結します。MetaのMTIA展開が2027年に完成すれば、同社のAI推論インフラの自給自足体制は大きく前進することになるでしょう。