Apple幹部がAirPodsの新機能を解説

Apple幹部がAirPodsの新機能を解説

Appleのイベント基調講演では、AirPodsは控えめに言及されただけでした。iPhone 15とApple Watch Series 9(およびUltra 2)が主役だったので、それも無理はありません。それに、AirPodsにはハードウェア面でのアップデートがほとんどありませんでした。イベント後に発表されたプレスリリースで確認されたように、AirPods Pro 2の最大の物理的変更点は、(確かに待望の)USB-C充電ケースの登場です。

AirPodsのニュースはこれで終わりだと思っても無理はありません。しかし、Appleの高級イヤホンには重要なソフトウェアアップデートも提供されました。iOS 17では、AirPods Pro 2(USB-CとLightning)の両方のバージョンで、数回タップするだけで新しいリスニングモードにアクセスできます。

新モデルを接続したら、下にスワイプしてコントロールセンターを表示し、音量スライダーを長押しします。すると、ノイズキャンセリング、会話認識、空間オーディオの3つのモード選択がポップアップ表示されます。今年特に注目されているのは、最初の2つです。

標準のノイズキャンセリング、外部音取り込み、オフに加え、アダプティブオーディオがオプションに追加されました。この新しいオプションをタップすると、虹色の背景でハイライト表示されます。この新機能は、異なる設定をリアルタイムでシームレスに切り替えます。これは、両極端の音を一つの設定にまとめることで、混雑した道路を状況認識しながら歩きながら、ゴミ収集車の走行音の影響を完全に受けないようにするための試みです。

画像クレジット: Apple

昨年の Adaptive Transparency 機能と似た名前ですが、Adaptive Audio は、透明性とノイズキャンセルの両方が機能する、完全なモードを提供します。

「昨年発表したアダプティブ・トランスペアレンシーは、非常に高速に動作する必要があります」と、プロダクトマーケティングディレクターのエリック・トレスキ氏はTechCrunchとのインタビューで述べた。「これは1秒間に4万回実行されます。これは監視だけでなく、削減も含まれています。これを迅速に実現するには、リアルタイムで実行する必要があります。アダプティブオーディオは、ユーザーが何を聞いているのかをより体系的に把握するためのプロセスであるため、数秒かけて少し遅くなります。私たちはアダプティブオーディオからトランスペアレンシーへと移行しており、不快感を軽減し、より快適にするために、意図的に遅くしています。」

このシステムは、聴いているコンテンツが音楽なのかポッドキャストなのかも考慮します。これは、Apple Musicなどのアプリからのタグ付けに基づいて判断されます。また、マイクが耳の中の音量を測定し、実際に体感している音量を正確に把握します。「相手の耳に届いていると思う音量だけを測定すると、装着方法やその他の要因によって精度が低下する可能性があります」と、センシング&コネクティビティ担当副社長のロン・フアン氏は説明します。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

Huang氏はTechCrunchに対し、デバイスのGPSを利用して位置情報に基づいて音量レベルを測定することを検討したと語った。しかし、実際のテストではこの方法は非効率的であることが判明した。

「アダプティブオーディオの初期段階では、基本的にユーザーの現在地に基づいて、ANCと外部音取り込みを切り替えていました」とフアン氏は語る。「スマートフォンがAirPodsに『ねえ、家の中にいるよ』などとヒントを伝えることは可能です。確かにその方法はありますが、これまでの経験を踏まえると、正しい方法ではないと判断し、今回採用しませんでした。もちろん、家の中はいつも静かであるとは限らないし、街中もいつも騒がしいとは限らないのです。そこで私たちは、スマートフォンからの位置情報に頼るのではなく、AirPodsがユーザーの環境をリアルタイムで監視し、自らインテリジェントに判断することにしました。」

AirPods Pro 2(USB-C搭載)
画像クレジット: Darrell Etherington

パーソナライズされた音量も、アダプティブオーディオ体験の重要な部分を占めています。このシステムは、ユーザーデータとパーソナライズされた好みを組み合わせ、リスナーの習慣をより深く理解します。Appleによると、このシステムには「環境条件とリスニングの好みを時間の経過とともに理解する機械学習」が組み込まれており、メディア体験を自動的に微調整します。これには複数の異なる指標が含まれています。

「数万時間にわたる様々なデータ(様々なユーザーが様々なコンテンツを様々な背景ノイズの中で聴いているデータ)を収集し、様々なリスニングの好みを深く理解しました。そして、ノイズの観点から、コンテンツをクリアに保つために何が邪魔になり、何が邪魔になるのかを深く理解しました」とフアン氏は強調する。「また、ユーザーの個人的な好みも記憶します。環境の種類、ノイズの量、普段どれくらいの音量でコンテンツを聴いているかなど、情報に基づいて記憶します。これを機械学習モデルに追加し、ユーザーにとってより効果的なものにしています。」

iOS 17で導入されたもう一つの大きな機能は、会話認識機能です。これは、話し始めるとトラックの音量を下げる機能です。ただし、外部の声はこの機能を作動させず、装着者の声のみを感知します。Appleは、内蔵の音声プロファイルを保持することなく、この効果を実現しています。その代わりに、複数の内蔵センサーを活用しています。マイクが声を感知し、加速度計が顎の動きを検知すると、この機能が作動します。作動時間は様々な要因によって異なります。咳払いやあくびなどの動作を回避できるこの機能には、感心しました。

チームは、イヤホンの長年の悩みの種である切り替えにも挑戦しました。通話に出てイヤホンで聞くまでの5秒のギャップは、まるで永遠のように感じられます。新しい切り替え速度を活用するには、ユーザーがAppleのエコシステムに縛られている必要があります。

画像クレジット: Apple

「今回の新しいソフトウェアアップデートにより、AirPodsとデバイスとの接続時間が大幅に短縮されました」とフアン氏は語る。「これは、近くのデバイスを検出するために様々な方法を採用していることによるものです。iPhone、iPad、Macが何をしているかを把握することは、私たちにとって非常に重要です。電話は音楽よりも重要なので、例えば電話会議などでは、iPhoneではなくMacに接続するようにしています。」

AirPods発表の最後の目玉は、Vision Pro接続です。Appleの近日発売予定の空間コンピューティングヘッドセットをお使いの方は、超低遅延ロスレスオーディオを実現する新型AirPods Proをぜひご持参ください。

「Bluetoothは通常2.4GHzで動作しますが、その空間は非常にノイズが多いんです」とフアン氏は語る。「誰もが2.4GHzで動作しています。だからこそ、例えばWi-Fiルーターは、トライバンドではないにせよデュアルバンドであることが一般的です。5GHz帯の周波数はそれだけクリーンだからです。極めて低遅延なオーディオ、そして極めて高忠実度でロスレスなオーディオを実現するには、2つの機器間で極めてクリーンでリアルタイムなチャネルを確立することが不可欠です。5GHz帯と、それらが非常に近接しているという特性の組み合わせが、それを可能にしました。AirPodsのために、5GHz帯上で全く新しいオーディオプロトコルを基本的に再設計できたのです。」

AppleのiPhone 15イベントの詳細はTechCrunchでご覧ください。