概要
投稿日:

ブルームバーグが情報筋から得た情報によると、Appleは音声アシスタントSiriの最新版を開発しており、高度な大規模言語モデル(LLM)を搭載しているという。会話型Siriの登場は、GoogleのGemini Liveなど、Siriよりもはるかに自然な会話を可能にする優れた機能をAI分野でリリースしている競合他社に追いつこうとするAppleの試みの一環だ。
報道によると、この新しいアシスタントは、ユーザーが現在頼りにしているSiriインターフェースを完全に置き換えるものとなり、Appleは2026年春にこの機能をリリースする予定だ。この機能はOpenAIの高度な音声モードに似ているようだが、現在のSiriと同じように個人情報やアプリにアクセスできるという。
それまでの間、AppleはiPhoneの高度なAI機能の実現をサードパーティに依存しています。OpenAIのChatGPTは12月にApple Intelligenceで利用可能になる予定で、AppleはGoogleやAnthropicといった他のAIプロバイダーとも同様の契約を検討していると報じられています。
トピック
業界最大のテクノロジーニュースを購読する