Appleは、AI対応の遅れが指摘されてきた音声アシスタント「Siri」の立て直しを急ぐ。外部AIモデルの活用も視野に入れつつ、iOS 26.4でLLMベースの基盤に移行し、対話機能の強化を図る見通しだ。
米ITメディアの9to5Macは1月5日(現地時間)、SiriのAIアップデートが遅れている背景には、Appleの慎重な開発姿勢とプライバシー保護を重視する戦略があると伝えた。
Appleはこれまで、競合に先んじた投入よりも完成度を優先してきた。音声を主要インターフェースとするSiriでは、LLMを性急に導入した場合のリスクが大きいと判断してきたという。一方で、LLMの学習には大規模なユーザーのデータが必要になるが、Appleがユーザーデータを学習に使わない方針を取ってきたことも、Siriの高度化を難しくしたとされる。
ただ、その間に状況は大きく変わった。Siriの高度化が遅れるなか、OpenAIのChatGPTやGoogleのGeminiといった競合サービスは急速に進化した。Appleは既に、Siriが応答できない場合にChatGPTへ自動で切り替える機能を提供している。
さらに足元では、SiriのバックエンドにGeminiを活用する案も取り沙汰されている。この場合も、外部モデルはAppleのプライベート・クラウド・コンピュート(PCC)サーバ上で動作し、ユーザーの個人情報は保護されるという。
Siriの本格刷新はiOS 26.4で実施される見通しだ。従来の構造を見直し、LLMベースのアーキテクチャへ移行することで、チャットボット並みの対話応答を実現するとみられている。
あわせて、App Intentsによるハンズフリー操作、個人コンテキストの認識、画面認識など、これまで延期されてきた機能も導入される予定だ。
業界では、自社AIモデルに固執するよりも、実績のある外部AIモデルとAppleの強みであるプライバシー保護を組み合わせる戦略が、Siri再建の現実的な突破口になり得るとの見方が出ている。Siriの成否は、独自技術へのこだわりそのものではなく、Appleがどこまで迅速かつ安定的にAI体験を提供できるかにかかっているとの分析だ。