iOS 16に搭載される新機能により、アプリはハンズフリーで現実世界のアクションをトリガーできるようになります。つまり、ユーザーは部屋に入るだけで音楽を再生したり、電動バイクに乗るだけでワークアウトを開始したりといったことが可能になります。Appleは本日、世界開発者会議(WWDC)のセッションで開発者向けに、iOSユーザーがアプリをアクティブに使用していなくても、これらのハンズフリーアクションをトリガーできるようになると発表しました。
このアップデートは、Apple の Nearby Interaction フレームワークを活用しており、開発者やアクセサリメーカーがこの技術を採用すれば、iPhone が現実世界のオブジェクトと対話する手段となる興味深い使用例が生まれる可能性がある。
セッション中、Appleは、現在のアプリがバックグラウンドで動作中でもBluetooth LEアクセサリに接続し、データを交換できる仕組みについて説明しました。iOS 16では、アプリはバックグラウンドで超広帯域通信(UWB)もサポートするBluetooth LEアクセサリとNearby Interactionセッションを開始できるようになります。
これに関連して、Apple はアクセサリメーカー向けの仕様を更新し、これらの新しいバックグラウンドセッションをサポートしました。
これにより、アプリと現実世界の境界線が曖昧になる未来への道が開かれるが、サードパーティのアプリやデバイスのメーカーがこの機能を利用するかどうかはまだ分からない。
この新機能は、開発者セッションの焦点であった Apple の Nearby Interaction フレームワークのより広範なアップデートの一部です。
WWDC 2020でiOS 14とともに導入されたこのフレームワークにより、サードパーティ製アプリ開発者はiPhone 11以降のデバイス、Apple Watch、その他のサードパーティ製アクセサリに搭載されているU1(超広帯域無線)チップを活用できるようになります。これは現在、AppleのAirTagが提供する高精度な位置情報検索機能の基盤となっています。この機能により、iPhoneユーザーは「探す」アプリを開き、画面上の矢印や、AirTagからの距離、AirTagが別の階に設置されているかどうかなどを示すその他のガイダンスに従って、AirTagの正確な位置まで誘導されます。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
iOS 16では、Appleの拡張現実開発ツールキットであるARKitをNearby Interactionフレームワークと統合できる新機能のおかげで、サードパーティの開発者はほぼ同じことを行うアプリを構築できるようになります。
これにより、開発者はARKitから計算されたデバイスの軌跡を活用できるようになり、アプリの機能に応じて、デバイスがユーザーを置き忘れたアイテムや、ユーザーが操作したいと思われる他のオブジェクトにスマートに誘導できるようになります。ARKitを活用することで、開発者はNearby Interactionのみを使用する場合よりも、より一貫した距離と方向の情報を得ることができます。
しかし、この機能はサードパーティ製のAirTagのようなアクセサリにのみ使用されるわけではありません。Appleは、例えば美術館がUWBアクセサリを使って展示物を観覧するといった別のユースケースのデモも行いました。
さらに、この機能は、カメラで捉えた現実世界の画像の上に方向矢印やその他のARオブジェクトを重ねて表示できるため、UWB(超広帯域無線通信)のオブジェクトやアクセサリへのユーザー誘導に役立ちます。デモの続きで、Appleはアプリ画面上のカメラ画像の上に赤いARバブルが表示され、進むべき方向を示す様子を簡単に紹介しました。
長期的には、この機能は、Apple が噂している複合現実スマートグラスの基礎となり、AR 対応アプリがその体験の中核を成すものと思われます。
更新された機能は、今年後半に一般公開される予定の iOS 16 ソフトウェア アップデートのベータ テスターに展開されます。
サラは2011年8月からTechCrunchの記者として働いています。彼女はReadWriteWebで3年以上勤務した後、TechCrunchに入社しました。記者になる前は、銀行、小売、ソフトウェアなど、様々な業界のIT業界で働いていました。
Sarah からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal で sarahperez.01 に暗号化されたメッセージを送信してください。
バイオを見る