Appleが3月1日、iOS 26.4でGoogleのGeminiモデルを搭載した完全に刷新されたSiriを提供することを正式発表しました。約10億ドル規模とされる複数年契約のもと、Apple Foundation ModelsはGeminiおよびGoogle Cloud技術をベースに構築されます。これは従来のコマンド型Siriから、会話型AIへの根本的な転換を意味します。
プライバシーを重視するAppleらしく、技術アーキテクチャには独自の工夫が施されています。AppleはGoogleの学習済みGeminiモデルのライセンスを取得しますが、推論処理はGoogle Cloudではなく、Appleの「Private Cloud Compute」(PCC)システムおよびユーザーデバイス上で行われます。シンプルなタスクはローカルで処理し、複雑なリクエストはAppleのクラウドを使用、最も高度なクエリのみがGoogleのモデルを活用するという多層構造で、データがGoogleに直接送信されることはありません。
Redditでは「AppleがGoogleと提携という意外な展開」に驚きの声が上がっています。Hacker Newsでも「プライバシー重視のAppleがクラウドAIをどう扱うか」が注目されています。なお、BloombergのMark Gurman氏によると、AppleはiOS 26.4から当初目標をiOS 26.5およびiOS 27に延期する可能性も報じられており、正式リリースの時期はまだ流動的です。
長年批判されてきたSiriのAI性能が大幅に向上すれば、AppleのAI戦略における大きな転換点となりそうです。