Metaは2026年3月11日、カスタムAIアクセラレータ「MTIA(Meta Training and Inference Accelerator)」シリーズの4世代チップ——MTIA 300・400・450・500——を同時発表しました。通常1〜2年かかるAIチップの開発を6ヶ月以下のサイクルで量産できる体制を構築したと説明しており、NVIDIA・AMDへの依存を段階的に低減しながら自社AIインフラのコスト構造を根本的に変えることを狙っています。2026年に1,150〜1,350億ドルという前例のない設備投資を計画するMetaにとって、チップの内製化はコスト支配力を確保するための中核戦略です。
MTIA 300はFacebook・Instagramのコンテンツランキングと推薦システムの学習に特化しており、すでに本番稼働中です。MTIA 400は「初めて商用製品と競合できる生の性能を持つ」と説明される汎用AI推論チップで、1ラックあたり72基を配置する設計です。2027年初頭に大規模展開を予定するMTIA 450はHBMメモリ帯域幅をMTIA 400の2倍に拡大し、「既存の商用製品を大幅に上回る」性能を謳います。さらにMTIA 500はMTIA 450比でHBM帯域幅をさらに50%増やした高効率推論チップです。MTIA 300からMTIA 500の間でコンピュートFLOPsは25倍、HBM帯域幅は4.5倍に向上しています。全チップはTSMCが製造し、Broadcomと共同設計、ISAにはオープンソースのRISC-Vを採用しています。
ハードウェアエンジニアリングコミュニティはX上で「GoogleのTPUやAppleのM系チップに続くシリコン垂直統合戦略」として評価し、NVIDIAの株価への影響を懸念する投稿も見られました。一方Redditでは「4世代を同時発表するのは異例」として注目され、「本当に量産できるのか」「2027年の展開スケジュールは現実的か」を問う懐疑的なコメントも多くありました。
重要なのは、Metaが同時期にNVIDIAおよびAMDとの複数年にわたるGPU調達契約も締結しているという事実です。MTIAシリーズは推論(既学習モデルの活用)に特化しており、フロンティアモデルの大規模学習は引き続き商用GPUに依存します。HBMメモリの供給制約についても担当VPが懸念を認めており、4世代の量産計画が予定通り進むかはサプライチェーン次第の側面もあります。Hacker Newsではハイパースケーラー各社による独自チップ開発競争の加速という文脈でのAIインフラのコスト構造変化についての詳細な分析が展開されました。「推論コストをNVIDIAに払い続けることで生じる『コンピュート税』をどれだけ削減できるか」——この問いへの答えが、今後のMetaのAIビジネスの収益性を左右する鍵となります。