AppleとGoogleは2026年1月、次世代のApple Foundation ModelsをGoogleのGeminiモデルとクラウド技術を基盤として構築する複数年契約を締結しました。AppleはGoogleに年間約10億ドルを支払い、1.2兆パラメータのGeminiモデルを使用した新しいSiriを3月〜4月のiOS 26.4でリリース予定です。
CNBCによると、AppleはGoogleの技術が「Apple Foundation Modelsに最も優れた基盤を提供する」と判断し、この提携を決定しました。新機能にはユーザーの個人的なコンテキストの理解向上、画面認識機能、アプリごとの詳細な制御が含まれます。プライバシー面では、Apple IntelligenceはAppleデバイスとPrivate Cloud Computeで引き続き実行され、業界をリードするプライバシー基準を維持するとしています。
X上では「ようやくSiriがまともになる」と歓迎する声が多く、オンデバイス実行でプライバシーが確保される点も評価されています。一方、Redditでは「Apple独自LLM開発の遅れ」を批判する声もあり、「OpenAI、次はGoogleと外部依存が続く」という懸念が表明されています。AppleはすでにOpenAIとも提携しており、複雑なクエリに対してはChatGPTがSiriとApple Intelligenceに統合されています。
SiriのAI強化は長らく待望されていた機能であり、この提携がAppleのAI戦略にどのような影響を与えるか注目されます。
| - [Google's Gemini to power Apple's AI features like Siri | TechCrunch](https://techcrunch.com/2026/01/12/googles-gemini-to-power-apples-ai-features-like-siri/) |
|---|---|
| - [Apple picks Google's Gemini to run AI-powered Siri coming this year | CNBC](https://www.cnbc.com/2026/01/12/apple-google-ai-siri-gemini.html) |