昨年のAppleのWWDC基調講演では、同社のAI分野における野心的な進歩が強調されました。今年はApple Intelligenceへの注力を抑え、OS、サービス、ソフトウェアのアップデートに注力し、「Liquid Glass」と呼ぶ新しいデザインと新しい命名規則を導入しました。
それでも、Apple は画像分析ツール、ワークアウト コーチ、ライブ翻訳機能など、いくつかの AI 関連の発表で聴衆をなだめようとしました。
ビジュアルインテリジェンス
Visual Intelligenceは、AppleのAIを搭載した画像分析テクノロジーで、周囲の情報を収集することができます。例えば、庭の植物を識別したり、レストランの情報を教えたり、誰かが着ているジャケットを認識したりすることができます。

この機能は、iPhoneの画面上の情報と連携できるようになります。例えば、ソーシャルメディアアプリで投稿を見つけた場合、Visual Intelligenceは閲覧中に見たものに関連する画像検索を実行できます。このツールは、Google検索、ChatGPT、その他の類似アプリを使用して検索を実行します。
Visual Intelligenceを利用するには、コントロールセンターを開くか、アクションボタン(通常はスクリーンショットを撮るときに使用するボタン)をカスタマイズしてください。この機能は、今年後半にリリースされるiOS 26で利用可能になります。詳細はこちら。
ChatGPTがImage Playgroundに登場
Appleは、AIを活用した画像生成ツール「Image Playground」にChatGPTを統合しました。ChatGPTの導入により、アプリは「アニメ」「油絵」「水彩画」といった新しいスタイルの画像を生成できるようになりました。また、ChatGPTにプロンプトを送信して追加の画像を作成させるオプションも追加されます。詳細はこちら。
ワークアウトバディ
Appleの最新のAI搭載ワークアウトコーチは、その名の通り、テキスト読み上げモデルを使用して、パーソナルトレーナーの声を模倣し、エクササイズ中に励ましの言葉をかけてくれます。ランニングを開始すると、ワークアウトアプリ内のAIがモチベーションを高めるトークを提供し、最速1マイルのタイムや平均心拍数など、重要なポイントを強調表示します。ワークアウト終了後には、AIが平均ペース、心拍数、そして目標達成状況をまとめます。詳細はこちら。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
ライブ翻訳
Apple Intelligenceは、メッセージ、FaceTime、そして通話に新しいライブ翻訳機能を搭載しています。この技術は、テキストや音声をユーザーの希望する言語にリアルタイムで自動翻訳します。FaceTime通話中はライブキャプションが表示され、通話中はAppleが会話を音声で翻訳します。詳細はこちら。

AIが未知の発信者に対応
Appleは、通話機能にAIを活用した2つの新機能を導入しました。1つ目は「コールスクリーニング」と呼ばれるもので、知らない番号からの電話にバックグラウンドで自動的に応答します。これにより、ユーザーは発信者の名前と通話の目的を聞いてから、電話に出るかどうかを判断できます。
2つ目の機能「保留アシスト」は、コールセンターのエージェントを待つ際に自動的に保留音を検出します。ユーザーは保留中でも接続を維持できるため、iPhoneを他の作業に使用できます。エージェントが対応可能になると、通知でお知らせします。詳細はこちら。
メッセージでのアンケート提案
Appleは、メッセージアプリ内でユーザーがアンケートを作成できる新機能も導入しました。この機能は、Apple Intelligenceを活用して、会話の文脈に基づいてアンケートを提案します。例えば、グループチャットの参加者がどこで食事をするか決めかねている場合、Apple Intelligenceはアンケートを開始することを提案し、決断を後押しします。詳細はこちら。

AIを活用したショートカット
Apple Intelligenceの導入により、ショートカットアプリがさらに便利になります。Appleによると、ショートカットを作成する際にAIモデルを選択して、AIによる要約などの機能を有効にできるようになるとのことです。詳細はこちら。

コンテキスト認識スポットライト
Macのデバイス内検索機能「Spotlight」にマイナーアップデートが導入されます。Apple Intelligenceの搭載により、状況認識能力が向上し、ユーザーが普段行う操作や、現在のタスクに合わせた提案が表示されます。詳細はこちら。
開発者向け基盤モデル
Appleは、開発者がオフラインでもAIモデルにアクセスできるようにしました。同社はFoundation Modelsフレームワークを導入し、開発者はAppleの既存システムを活用するサードパーティ製アプリに、より多くのAI機能を組み込むことができます。これは、Appleが他のAI企業と競争する中で、より多くの開発者が新しいAI機能を開発することを奨励する狙いがあると考えられます。詳細はこちら。
AppleのAI搭載Siriの挫折
このイベントで最も残念なニュースは、Siriの待望の開発がまだ準備できていないという点でした。参加者は、デビューが期待されていたAI搭載機能を一目見たいと熱望していました。しかし、Appleのソフトウェアエンジニアリング担当シニアバイスプレジデントであるクレイグ・フェデリギ氏は、来年まで詳細は明らかにできないと述べました。この遅延は、競争が激化する市場におけるAppleの音声アシスタント戦略に疑問を投げかける可能性があります。続きを読む。