Metaは3月11日、自社開発のAIアクセラレーター「MTIA(Meta Training and Inference Accelerator)」の4世代モデルを一挙に発表しました。MTIA 300、400、450、500の4チップは今後2年間で順次展開され、約6ヶ月ごとに新世代をリリースするという業界の常識を覆す開発ペースを示しています。
各チップは異なるワークロードに最適化されています。MTIA 300は現在すでに稼働中で、生成AI以前からMetaの主要ワークロードであったランキング・レコメンデーション(R&R)処理向けに設計されています。MTIA 400は従来のR&Rアプリケーション向けにより大規模な生成AIモデルを実装でき、MTIA 450はMTIA 400の高帯域メモリ(HBM)容量を2倍に拡張、MTIA 500はさらにHBMを50%増加させます。MTIA 400、450、500は2027年初頭から生成AI推論向けに順次展開される予定です。
注目すべきはMetaのチップ設計戦略です。同社は「モジュラー」アプローチを採用しており、業界標準の2年サイクルではなく6ヶ月ごとに新チップ設計を反復できる体制を構築しています。これによりNvidia、AMD、Googleなど外部チップベンダーへの依存度を下げながら、シリコン供給の多様化を図っています。
X上では「2年で4チップのロードマップが業界の常識を破壊する」と話題になっています。ただし、この発表はNvidia、AMDとの大型契約締結直後のタイミングであったことにHacker Newsでは注目が集まっており、完全な内製化ではなく供給源の多様化戦略として評価する声が上がっています。
Metaは引き続きNvidia、AMD、Googleからハードウェアを購入しており、価格変動へのリスクヘッジとしてシリコン供給を多様化する方針を維持しています。自社チップ開発はあくまでデータセンター拡張を支えつつコスト効率を高める補完的な位置づけと見られます。
| - [Meta's New AI Chips: MTIA 300, 400, 450, 500 | IndexBox](https://www.indexbox.io/blog/metas-new-ai-chips-mtia-300-400-450-500-target-nvidias-dominance/) |
|---|---|
| - [Meta rolls out in-house AI chips | CNBC](https://www.cnbc.com/2026/03/11/meta-ai-mtia-chip-data-center.html) |
| - [Meta reveals custom AI chips | The Register](https://www.theregister.com/2026/03/12/meta_custom_chips/) |