Apple Intelligence: AppleのAIモデルとサービスについて知っておくべきことすべて

Apple Intelligence: AppleのAIモデルとサービスについて知っておくべきことすべて

最近新しいiPhoneモデルにアップグレードした方は、メッセージ、メール、メモなど、よく使うアプリにApple Intelligenceが搭載されていることに気付いたかもしれません。Apple Intelligence(そう、AIとも略されます)は2024年10月にAppleのエコシステムに登場し、Google、OpenAI、Anthropicなど、Appleが最高のAIツール開発を競う中で、今後もAppleはAIを活用し続けるでしょう。

Apple Intelligenceとは何ですか?

画像クレジット: Apple

クパチーノのマーケティング担当幹部は、Apple Intelligenceを「一般の方のためのAI」と位置付けています。このプラットフォームは、テキストや画像の生成など、生成型AIが既に得意とする機能を活用し、既存の機能を向上させるように設計されています。ChatGPTやGoogle Geminiといった他のプラットフォームと同様に、Apple Intelligenceは大規模な情報モデルで学習されています。これらのシステムは、テキスト、画像、動画、音楽など、あらゆる情報モデル間のつながりを構築するためにディープラーニングを活用します。

LLMを搭載したテキスト機能は、ライティングツールとして提供されています。この機能は、メール、メッセージ、Pages、通知など、さまざまなAppleアプリで利用できます。長文の要約を作成したり、校正したり、内容や文体の指示に従ってメッセージを作成したりすることも可能です。

画像生成機能も同様の方法で統合されていますが、シームレスさは少し欠けています。ユーザーはApple Intelligenceに指示することで、Appleらしいカスタム絵文字(Genmoji)を生成できます。一方、Image Playgroundはスタンドアロンの画像生成アプリで、指示に基づいてビジュアルコンテンツを作成し、メッセージやKeynoteで使用したり、ソーシャルメディアで共有したりできます。

Apple Intelligenceは、Siriの待望の刷新でもあります。このスマートアシスタントは初期から登場していましたが、ここ数年ほとんど注目されていませんでした。SiriはAppleのOSに深く統合され、例えば、Siriが動作している時は、おなじみのアイコンではなく、iPhone画面の縁に光るライトが表示されます。

さらに重要なのは、新しいSiriが複数のアプリにまたがって機能することです。例えば、Siriに写真の編集を頼み、それをテキストメッセージに直接挿入できます。これは、これまでのSiriにはなかった、スムーズな操作性です。画面認識機能により、Siriは現在あなたが見ているコンテンツの文脈に基づいて適切な回答を提供します。

WWDC 2025に向けて、Appleがさらに強化されたバージョンのSiriを発表すると多くの人が期待していましたが、もう少し待たなければなりません。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

「これまでお伝えしてきたように、私たちはSiriをさらにパーソナルにする機能の提供に取り組んでいます」と、Appleのソフトウェアエンジニアリング担当SVP、クレイグ・フェデリギ氏はWWDC 2025で述べた。「この作業は、私たちの高品質基準に到達するまでにさらに時間を要しました。来年、この件についてさらに詳しくお伝えできることを楽しみにしています。」

まだリリースされていないこのSiriのよりパーソナライズされたバージョンは、人間関係やコミュニケーション習慣といった「個人的なコンテキスト」を理解できるはずです。しかし、ブルームバーグの報道によると、この新しいSiriの開発バージョンはエラーが多すぎて出荷できないため、リリースが遅れているとのこと。

WWDC 2025で、AppleはVisual Intelligenceと呼ばれる新しいAI機能も発表しました。これは、ブラウジング中に目にしたものを画像検索する機能です。また、メッセージ、FaceTime、電話アプリで会話をリアルタイムで翻訳できるライブ翻訳機能も発表しました。

Visual Intelligence と Live Translation は、iOS 26 が一般公開される 2025 年後半に利用可能になる予定です。

Apple Intelligence はいつ発表されましたか?

数ヶ月にわたる憶測の後、Apple IntelligenceがWWDC 2024で中心的な舞台に立った。このプラットフォームは、GoogleやOpen AIなどの企業から生成AIに関するニュースが殺到する中で発表されたため、口が堅いことで有名なこのテック大手が最新のテクノロジーブームに乗り遅れたのではないかとの懸念が高まった。

しかし、そうした憶測に反して、Appleは人工知能(AI)に対するAppleらしいアプローチに取り組むチームを編成していた。デモには華やかさも残っていたが(Appleはいつも派手な演出を好む)、Apple Intelligenceは結局のところ、この分野における非常に実用的なアプローチと言えるだろう。

Apple Intelligenceは独立した機能ではなく、既存のサービスとの統合を目指しています。これはブランド戦略の一環ですが、大規模言語モデル(LLM)に基づく技術は舞台裏で動作します。消費者にとって、この技術は主に既存アプリの新機能として提供されることになります。

2024年9月に開催されたAppleのiPhone 16発表イベントで、さらに多くのことが明らかになりました。イベント中、AppleはApple Watch Series 10の翻訳機能、iPhoneのビジュアル検索、Siriの機能改善など、同社デバイスに搭載されるAI搭載機能を多数発表しました。Apple Intelligenceの第一弾は、iOS 18.1、iPadOS 18.1、macOS Sequoia 15.1の一部として、10月末にリリース予定です。

これらの機能はまず米国英語で提供開始されました。その後、オーストラリア、カナダ、ニュージーランド、南アフリカ、英国英語へのローカライズが追加されました。中国語、英語(インド)、英語(シンガポール)、フランス語、ドイツ語、イタリア語、日本語、韓国語、ポルトガル語、スペイン語、ベトナム語へのサポートは2025年に開始される予定です。

Apple Intelligence を利用できるのは誰ですか?

天然チタン製のiPhone 15 Pro Maxを手に持ち、背面を見せる
画像クレジット: Darrell Etherington

Apple Intelligenceの第一弾は、2024年10月にiOS 18.1、iPadOS 18、macOS Sequoia 15.1のアップデートで提供されました。これらのアップデートには、統合されたライティングツール、画像のクリーンアップ、記事の要約、そして再設計されたSiriエクスペリエンスのための入力入力機能が含まれていました。第二弾の機能は、iOS 18.2、iPadOS 18.2、macOS Sequoia 15.2の一部として利用可能になりました。これには、Genmoji、Image Playground、Visual Intelligence、Image Wand、ChatGPTとの統合が含まれます。

以下のいずれかのハードウェアをお持ちであれば、これらのサービスは無料でご利用いただけます。

  • iPhone 16の全モデル
  • iPhone 15 Pro Max (A17 Pro)
  • iPhone 15 Pro (A17 Pro)
  • iPad Pro(M1以降)
  • iPad Air(M1以降)
  • iPad mini(A17以降)
  • MacBook Air (M1以降)
  • MacBook Pro(M1以降)
  • iMac(M1以降)
  • Mac mini(M1以降)
  • Mac Studio (M1 Max以降)
  • Mac Pro (M2 ウルトラ)

注目すべきは、iPhone 15の標準モデルのチップセットに欠陥があるため、ProバージョンのみがApple Intelligenceにアクセスできることです。しかし、おそらくiPhone 16シリーズ全体がApple Intelligenceに対応できるようになるでしょう。

Apple の AI はインターネット接続なしでどのように動作するのでしょうか?

画像クレジット: Apple

GPTまたはGeminiに質問すると、クエリは外部サーバーに送信され、応答が生成されます。これにはインターネット接続が必要です。しかし、Appleは小規模モデルによるカスタムメイドのアプローチを採用し、トレーニングを行っています。

このアプローチの最大の利点は、これらのタスクの多くがリソース消費量が大幅に削減され、デバイス上で実行できるようになることです。これは、GPTやGeminiといったプラットフォームに見られるような、ありとあらゆるデータを扱うような汎用的なアプローチに頼るのではなく、例えばメール作成といった特定のタスク向けに、社内でデータセットを蓄積しているためです。

しかし、これはすべてに当てはまるわけではありません。より複雑なクエリには、新しいプライベートクラウドコンピューティングサービスが活用されます。Appleは現在、Apple Silicon上で動作するリモートサーバーを運用しており、これによりコンシューマー向けデバイスと同等のプライバシーを提供できると主張しています。アクションがローカルで実行されているかクラウド経由で実行されているかは、デバイスがオフラインでない限り、ユーザーにはわかりません。オフラインの場合は、リモートクエリはエラーを返します。

サードパーティ製アプリと連携したApple Intelligence

OpenAIとChatGPTのロゴ
画像クレジット:ディデム・メンテ/アナドル通信社/ゲッティイメージズ

Apple Intelligenceの発表を前に、AppleとOpenAIの提携が予定されていることが大きな話題となった。しかし、結局のところ、この提携はApple Intelligenceの強化というよりも、Apple Intelligenceが本来想定していない用途のための代替プラットフォームを提供することが主眼だったことが判明した。これは、小規模なモデルシステムの構築には限界があることを暗黙のうちに認めていると言えるだろう。

Apple Intelligenceは無料です。ChatGPTへのアクセスも同様です。ただし、ChatGPTの有料アカウントをお持ちの方は、無制限のクエリなど、無料ユーザーには提供されていないプレミアム機能をご利用いただけます。

iOS 18.2、iPadOS 18.2、macOS Sequoia 15.2 で初めて導入された ChatGPT 統合には、Siri の知識ベースを補完することと、既存のライティング ツール オプションに追加することという 2 つの主な役割があります。

このサービスを有効にすると、特定の質問に対して新しいSiriがユーザーにChatGPTへのアクセスを承認するよう促します。レシピや旅行計画などは、このオプションが表示される可能性のある質問の例です。ユーザーはSiriに直接「ChatGPTに聞いてください」と指示することもできます。

Composeは、Apple Intelligenceを通じて利用できるChatGPTのもう一つの主要機能です。ユーザーは、新しいライティングツール機能をサポートするすべてのアプリでこの機能にアクセスできます。Composeは、プロンプトに基づいてコンテンツを作成する機能を追加します。これは、スタイルや要約といった既存のライティングツールに加わるものです。

Appleが今後、さらに多くの生成AIサービスと提携する計画があることは確かです。同社は、その次の提携先としてGoogle Geminiを挙げています。

開発者は Apple の AI モデルを基盤として構築できますか?

AppleはWWDC 2025で、開発者がオフラインでもAIモデルを利用できるようにする「Foundation Modelsフレームワーク」を発表した。

これにより、開発者は Apple の既存のシステムを活用したサードパーティ製アプリに AI 機能を組み込む可能性が高まります。

「例えば、試験の準備をしている場合、Kahootのようなアプリを使えば、あなたのメモからパーソナライズされたクイズを作成し、勉強をより魅力的にすることができます」とフェデリギ氏はWWDCで述べた。「しかも、デバイス上のモデルを使って行われるため、クラウドAPIのコストは発生しません。開発者がAppleのインテリジェンスを基盤として、スマートでオフラインでも利用可能、そしてプライバシーも保護された新しい体験を提供してくれることを、私たちは非常に楽しみにしています。」

Siri の次回の全面改良はいつ行われるのでしょうか?

Appleは2026年に改良された新しいSiriを発表すると予想されていますが、これは競合他社と比較するとやや遅いペースです。Appleにとって痛手となるかもしれませんが、開発を加速させるためには、新しいSiriの基盤として外部企業と提携せざるを得ないかもしれません。Appleは、スマートフォンハードウェアの主要競合であるGoogleと高度な協議を進めていると噂されています。