Metaは2026年3月、自社開発のAIチップ「MTIA(Meta Training and Inference Accelerator)400」のデータセンターへの展開を開始しました。1ラックあたり72枚のMTIA 400を搭載した構成でAI推論を加速するもので、後継のMTIA 450・500は2027年の量産展開を予定しています。NvidiaやAMDへの依存を減らすことを明確に掲げた戦略的な動きとして、AI半導体市場の多極化を加速させています。
Metaの公式ブログによると、同社はBroadcomとの戦略的連携も深化させており、ASICチップ(特定用途向け集積回路:汎用GPUではなく特定タスクに最適化されたカスタムシリコン)設計とMetaの独自ワークロードを組み合わせることで、大規模AIモデルの推論コストと電力消費の大幅削減を目指しています。Instagram、WhatsApp、Facebook上での推薦システムや生成AI機能の駆動が主な用途です。一方でMetaはNvidiaとAMDとの複数年・数十億ドル規模の調達契約も同時に締結しており、MTIA展開はあくまで「多様化と価格交渉力の確保」を目的とするものであり、汎用GPUの完全置換ではないと強調しています。同社の設計思想は業界標準の年1〜2回より高頻度な半年以内のチップ世代更新サイクルで、モジュラー設計による効率的な開発を実現しています。
Redditでは「Nvidia一強から多極化へのシフト」として注目されているものの、汎用性に劣るカスタムチップの限界を指摘する意見も多くあります。Hacker Newsでは「GoogleのTPU、MetaのMTIA、AmazonのTrainium――テック大手がこぞって独自シリコンに移行する加速トレンド」を分析した投稿が注目を集め、Nvidiaのエコシステム支配力と競合独自シリコンのトレードオフについて深い議論が展開されています。
テック大手による独自AIシリコンへの移行は、Nvidiaの独占的地位に中長期的な変化をもたらす可能性があります。ただし、CUDAエコシステムの優位性や汎用性の高さから、Nvidiaが即座に置き換えられるシナリオは考えにくく、当面は「主力はNvidia、補完にカスタムシリコン」という共存の形が続くとみられます。