インタビュー:Appleのプライバシー責任者が児童虐待検出とメッセージの安全機能について語る

インタビュー:Appleのプライバシー責任者が児童虐待検出とメッセージの安全機能について語る

先週、Appleは自社デバイスにおける子供の安全を目的とした一連の新機能を発表しました。まだ公開されていませんが、今年後半にはユーザーに提供される予定です。これらの機能の目的は、未成年者の保護と児童性的虐待コンテンツ(CSAM)の拡散防止という、広く認められた優れたものであると認識されていますが、Appleが採用している手法については疑問の声が上がっています。

Appleのプライバシー責任者であるエリック・ノイエンシュヴァンダー氏に、同社デバイス向けに導入される新機能について話を聞きました。ノイエンシュヴァンダー氏は、これらの機能に関して人々が抱く多くの懸念に詳細な回答を示し、このシステムの導入後に発生する可能性のある戦術的および戦略的な問題についても詳しく語りました。 

また、これらの機能の展開についても質問しました。これらの機能は密接に絡み合っていますが、実際には全く異なるシステムであり、目的は共通しています。具体的に言うと、Appleはここで3つの異なることを発表しており、報道や一般の人々の間では混同されているものもあります。 

iCloudフォトにおけるCSAM検出– NeuralHashと呼ばれる検出システムは、全米行方不明・被搾取児童センター(NCCE)などの機関のIDと照合できる識別子を作成し、 iCloudフォトライブラリ内の既知のCSAMコンテンツを検出します。ほとんどのクラウドプロバイダーは既にユーザーライブラリをスキャンしてこの情報を取得していますが、Appleのシステムはクラウドではなくデバイス上で照合を行うという点で異なります。

メッセージにおけるコミュニケーションの安全性– 保護者がiCloudファミリーアカウントで未成年者向けに有効にする機能です。お子様が閲覧しようとしている画像に不適切な表現が含まれていると検出された場合、お子様に警告が表示され、保護者にも警告が届くことが通知されます。

Siri と検索への介入– ユーザーが Siri と検索を通じて CSAM 関連の用語を検索しようとしたときに介入し、ユーザーに介入を通知してリソースを提供する機能。

これらすべての機能の詳細については、上記のリンク先の記事、または今週末にApple が投稿した新しい FAQ をお読みください。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

個人的な経験から、最初の 2 つのシステムの違いを理解していない人や、自分の子供の無邪気な写真が何らかのフィルターに引っかかる可能性があると考えている人がいることを知っています。そのため、すでに複雑な発表の展開に混乱が生じています。もちろん、これら 2 つのシステムは完全に独立しており、CSAM 検出は、組織がすでに虐待画像であると認識しているコンテンツとの正確な一致を探します。メッセージのコミュニケーションの安全性は完全にデバイス上で行われ、外部には何も報告しません。子供が露骨な画像を見ようとしている、または見ようとしている可能性があることを警告するだけです。この機能は親がオプトインするものであり、有効になっていることは親と子の両方に透過的です。

Appleのメッセージ機能におけるコミュニケーションセーフティ。画像クレジット: Apple

また、デバイス上で写真をハッシュ化し、データベースと照合可能な識別子を作成するという点についても疑問が投げかけられています。NeuralHashは写真検索の高速化など、他の機能にも活用できる技術ですが、iPhoneではCSAM検出以外の用途には現在使用されていません。iCloud写真を無効にすると、この機能は完全に動作しなくなります。これはユーザーにとってオプトアウトの手段となりますが、iCloud写真の利便性とAppleのOSとの統合を考えると、確かに大きな代償を伴うでしょう。

このインタビューでは、これらの新機能に関するあらゆる疑問に答えることはできませんが、Appleの上級プライバシー担当者による公式発表の中では、最も詳細な議論となっています。Appleがアクセスを提供する姿勢、そして現在も継続中のFAQや記者会見(これまでに少なくとも3回開催されており、今後さらに増える可能性が高い)から、Appleがこの問題に適切な解決策があると考えていることは明らかです。 

懸念や抵抗があるにもかかわらず、政府は全員を納得させるのに必要なだけの時間をかけるつもりのようだ。 

このインタビューは、わかりやすくするために軽く編集されています。

TC:他のクラウドプロバイダーのほとんどは、すでにCSAMのスキャンを実施しています。Appleはそうしていません。もちろん、サーバー上でCSAMを必ず検出しなければならないという規制は現時点ではありませんが、EUやその他の国では厳しい規制が存在します。これが今回の動きのきっかけでしょうか?そもそも、なぜ今CSAMをスキャンするようになったのでしょうか?

エリック・ノイエンシュワンダー:なぜ今かというと、強力な児童安全とユーザーのプライバシーを両立できる技術を手に入れたからです。これは私たちが長らく検討してきた分野で、現在主流となっている最先端技術は、主にクラウドサービス上のユーザーライブラリのコンテンツ全体をスキャンするものです。ご指摘の通り、ユーザーのiCloudフォトを閲覧することは、これまで私たちが行ったことはありません。このシステムもこの点を変えるものではありません。デバイス上のデータも、iCloudフォト内のすべての写真も閲覧しません。その代わりに、既知のCSAMの収集を開始しているアカウントを特定する新たな能力を提供します。

つまり、この新しいCSAM検出技術の開発は、今こそ導入のタイミングであるという分岐点と言えるでしょう。Appleは、自社にとって安心できる、そしてユーザーにとって「良い」方法でこれを導入できると考えているのでしょうか?

まさにその通りです。私たちは2つの同等の目標を掲げています。1つはプラットフォーム上での子どもの安全性の向上、もう1つはユーザーのプライバシー保護です。そして、これら3つの機能すべてにおいて、これら2つの目標を達成するための技術を統合することができました。

メッセージ機能の通信安全性とiCloudフォトシステムのCSAM検出機能を同時に発表したことで、それぞれの機能と目的について混乱が生じているようです。同時発表は適切なアイデアだったのでしょうか?また、別々のシステムであるにもかかわらず、なぜ同時に発表されたのでしょうか?

これらは[2つの]システムではありますが、Siriや検索への介入強化と相まって、一体となっています。AppleのiCloudフォトサービスに保存されている既知のCSAMのコレクションを特定することは重要ですが、既に深刻な状況の上流段階に到達することも重要です。つまり、CSAM検出とは、報告プロセスを経て広く共有され、そもそもその素材を作成するために、そしてそもそもその素材の作成者自身にとって、虐待に加えて、子供たちを再び被害者にしている既知のCSAMが存在することを意味します。そのため、これを行うことは重要なステップだと思いますが、人々がこの問題のある有害な領域に足を踏み入れ始めたとき、あるいは既に虐待者が子供たちをグルーミングしたり、虐待が起こり得る状況に引き込もうとしているときに、より早い段階で介入することも重要です。メッセージにおけるコミュニケーションセーフティとSiriや検索への介入は、まさにこれらのプロセスに的を絞っています。したがって、私たちは、最終的にシステムによって検出される可能性がある CSAM につながるサイクルを阻止しようと真剣に取り組んでいます。

iCloudフォトシステムにおけるAppleのCSAM検出プロセス。画像クレジット: Apple

世界中の政府機関や政府機関は、エンドツーエンド、あるいは部分的な暗号化をユーザー向けに有効にしている大規模組織に対し、絶えず圧力をかけています。彼らはしばしば、CSAMやテロ活動の可能性を理由に、バックドアや暗号解除手段の設置を主張します。この機能とデバイス内ハッシュマッチング機能の導入は、こうした要求を阻止し、「ユーザーのプライバシーを侵害することなく、CSAM活動の追跡と防止に必要な情報を提供できます」とアピールするための試みなのでしょうか?

まず、デバイスのマッチングについてお話いただきましたが、このシステムは、従来のマッチングのように、デバイスや、デバイスが生成するバウチャーといったマッチング結果をAppleに開示するものではないことを強調しておきたいと思います。Appleは個々のバウチャーを処理することはできません。システムの特性上、違法な既知のCSAM画像に関連付けられたバウチャーがアカウントに蓄積されて初めて、ユーザーのアカウントについて何かを知ることができるのです。 

なぜこれを行うのかというと、おっしゃる通り、ユーザーのプライバシーを守りながら検出機能を提供できるからです。私たちは、デジタルエコシステム全体で子供の安全確保のために更なる取り組みが必要だと考えています。そして、この3つの機能は、まさにその方向への非常に前向きな一歩だと考えています。同時に、違法行為に関与していないすべてのユーザーのプライバシーは保護します。

デバイス上のコンテンツのスキャンと照合を可能にする枠組みを作ることで、外部の法執行機関が「リストはお渡しできます。ユーザーのデータすべてを見るつもりはありませんが、照合していただきたいコンテンツのリストはお渡しできます」と反論できる枠組みが生まれるのでしょうか?そして、このコンテンツと照合できれば、私たちが検索したい他のコンテンツとも照合できます。これは、Appleの現在の「ユーザーのデバイスは暗号化されており、解読することはできません。鍵は私たちが持っていません」という立場を覆さないのでしょうか?

少しも変わりません。デバイスは引き続き暗号化されており、鍵は保持していません。システムはデバイス上のデータで動作するように設計されています。私たちが設計したものにはデバイス側のコンポーネントがあり、ちなみに、これはプライバシー向上のためのものです。サーバー上でユーザーデータを調べて評価するだけの処理方法は、実際には(ユーザーに知られることなく)変更を受けやすく、ユーザーのプライバシー保護も弱くなります。

私たちのシステムには、バウチャーが作成されるデバイス側コンポーネント(学習は行われません)と、そのバウチャーがAppleサービスに送られるデータと共に送信され、アカウント全体で処理されて不正なCSAMの収集があるかどうかを学習するサーバー側コンポーネントの両方が含まれます。つまり、これはサービス機能です。サービス機能にデバイス上でバウチャーが生成される部分があるのは複雑な特性であることは理解していますが、この場合もデバイス上のコンテンツについては何も学習されません。バウチャー生成こそが、iCloudフォトではこれまで一度も行ったことのない、ユーザーの全コンテンツをサーバー上で処理する必要をなくす仕組みなのです。プライバシー特性、つまりユーザーの洞察や知識なしに、設計目的以外のことを実行できるように変更される可能性があるという点において、より問題になるのはこうしたシステムだと思います。

このシステムに関する大きな疑問の一つは、Appleが、政府やその他の機関から、CSAMではないものをデータベースに追加してデバイス上でチェックするなど、侵害行為を求められた場合、対応を拒否すると表明していることです。Appleが事業を展開するためには、現地の最高レベルの法律を遵守しなければならなかった事例はいくつかあり、中国がその例です。では、政府からシステムに侵害行為をするよう圧力をかけられたり、求められたりした場合、Appleがこの干渉拒否の姿勢を貫くと、私たちはどのように信じることができるのでしょうか。

まず、これは米国の iCloud アカウントのみを対象に開始されており、そのように述べる場合、仮説では一般的な国や米国以外の国が取り上げられるようです。そのため、米国の法律では政府にこうした機能を提供していないことに人々は同意しているようです。 

しかし、システム変更の試みについて話している場合でも、システムにはいくつかの保護機能が組み込まれているため、特に問題となる画像を保有する個人を特定するのにはあまり役に立ちません。ハッシュリストはオペレーティングシステムに組み込まれており、私たちは単一のグローバルオペレーティングシステムを使用しているため、個々のユーザーに合わせてアップデートを行うことができません。そのため、システムを有効にするとハッシュリストはすべてのユーザーで共有されます。また、システムには画像の閾値を超える必要があるため、個人のデバイス、あるいは複数のデバイスの集合から1枚の画像を探し出すことさえ不可能です。なぜなら、システムはサービスに保存されている個々の写真に関する情報をAppleに提供しないからです。さらに、システムには手動によるレビュー段階が組み込まれており、アカウントに違法なCSAM素材のコレクションが含まれているとフラグが付けられた場合、Appleチームがそれをレビューし、外部機関に照会する前に、それが違法なCSAM素材と正しく一致するかどうかを確認します。したがって、この仮説には、Apple に社内プロセスを変更させて、既知の CSAM のような違法ではない資料を参照させるなど、多くの困難を乗り越える必要がありますが、米国では人々がその要求を行える根拠があるとは思えません。最後に付け加えておきたいのは、ユーザーの選択権は依然として保持されているということです。ユーザーがこの種の機能が気に入らない場合は、iCloud フォトを使用しないように選択できます。iCloud フォトが有効になっていないと、システムのどの部分も機能しません。

iCloudフォトが無効になっているとシステムは動作しません。これはFAQでも明確に述べられています。具体的にお聞きしたいのですが、iCloudフォトを無効にした場合、このシステムはデバイス上の写真のハッシュを作成し続けるのでしょうか、それともその時点で完全に停止するのでしょうか?

ユーザーがiCloudフォトを使用していない場合、NeuralHashは実行されず、バウチャーも生成されません。CSAM検出は、ニューラルハッシュをオペレーティングシステムイメージに含まれる既知のCSAMハッシュのデータベースと比較するものです。iCloudフォトを使用していない場合、この部分だけでなく、安全性バウチャーの作成やiCloudフォトへのバウチャーのアップロードなどの追加部分も機能しません。 

近年、Apple はデバイス上での処理がユーザーのプライバシーを保護するという事実をしばしば重視してきました。そして、私が思いつくほぼすべての過去のケースにおいて、それは真実です。たとえば、写真をスキャンしてその内容を識別し、検索できるようにする。私なら、それをローカルで実行し、サーバーに送信しないでほしいと思います。しかし、この場合は、ローカルでスキャンしているものの、個人的な使用のためではなく、外部での使用のためにスキャンしているという点で、実際には一種の逆効果があるように思われます。つまり、一部のユーザーの心の中に「信頼が低い」シナリオを生み出しているのです。これに加えて、他のすべてのクラウドプロバイダーもサーバー上でスキャンしていることを考えると、この実装が他のほとんどのものと異なることで、ユーザーからの信頼が低下するのではなく、むしろ高まるのはなぜなのかという疑問が生じます。

業界標準の方法と比べて、私たちはハードルを上げていると思います。ユーザーの写真をすべて処理するサーバーサイドのアルゴリズムは、データ漏洩のリスクを高め、ユーザーのライブラリ上で何が起きているのかという点では、当然ながら透明性が低くなります。そのため、これをオペレーティングシステムに組み込むことで、オペレーティングシステムの整合性が既に多くの機能に提供しているのと同じ特性、つまりダウンロードしてインストールするすべてのユーザーにとって同一のグローバルオペレーティングシステムを実現できます。そのため、これを一つの特性にまとめるのは、個々のユーザーにどのようにターゲティングするかという点でさえ、はるかに困難です。サーバー側では、実際には非常に簡単です。些細なことです。いくつかの特性をデバイスに組み込み、機能を有効にしたすべてのユーザーに対して同一であることを保証することで、強力なプライバシー特性を実現できます。 

次に、デバイス内技術の利用がプライバシー保護にどのように役立つかを指摘されていますが、今回のケースでは、まさにその点を改めて強調したいと思います。つまり、ユーザーのライブラリをプライバシーの低いサーバーで処理しなければならない状況に代わる、まさに代替手段であるということです。

このシステムについて言えることは、違法行為に関与していない他のユーザーのプライバシーは完全に保護され、Appleはユーザーのクラウドライブラリに関する追加情報を得ることはありません。この機能によって、ユーザーのiCloudライブラリが処理されることはありません。その代わりに、私たちは暗号化された安全バウチャーを作成します。このバウチャーには数学的な特性があり、Appleはコンテンツを復号化したり、画像や、違法な既知のCSAMハッシュに一致する写真を収集したユーザーに関する情報のみを取得できます。これは、すべての画像を暗号化されていない形式で処理し、誰が何を知っているかを判断するためにルーチンで実行する必要があるクラウド処理スキャンサービスでは不可能です。その時点では、ユーザーの画像について何でも簡単に特定できます。一方、私たちのシステムは、NCMECやその他の児童安全機関から直接提供された既知のCSAMハッシュセットに一致する画像のみを特定します。 

このCSAM検出機能は、デバイスが物理的に侵害された場合でも、包括的な保護を維持できますか? 暗号化がローカルでバイパスされ、誰かがデバイスを所有している場合、追加のレイヤーはありますか?

これがどれほど困難で、費用がかかり、稀なケースであるかを強調しておくことが重要だと思います。ほとんどのユーザーにとって現実的な懸念事項ではありませんが、デバイス上のデータ保護は私たちにとって最優先事項であるため、私たちはこれを非常に真剣に受け止めています。仮に誰かのデバイスが攻撃されたとしましょう。これは非常に強力な攻撃であり、攻撃者がそのユーザーに対して実行しようとすることは多岐にわたります。攻撃者は多くのユーザーデータにアクセスできる可能性があります。そして、誰かのデバイスに侵入するという極めて困難な行為を成し遂げた攻撃者が、アカウントの手動レビューを開始したいと考えるのは、あまり意味がありません。 

覚えておいてください。たとえ閾値に達し、Appleによって復号化されたバウチャーがいくつかあったとしても、次の段階は、そのアカウントをNCMECに照会すべきかどうかを判断するための手動レビューです。これは、正当な高価値報告である場合にのみ行われるようにしたいと考えています。私たちはシステムをそのように設計しましたが、あなたが挙げた攻撃シナリオを考慮すると、攻撃者にとってそれほど魅力的な結果ではないと思います。

報告する画像のしきい値がなぜあるのですか。CSAM コンテンツが 1 つでは多すぎるのではないですか?

NCMECへの報告は価値が高く、実用的なものとなるよう努めています。あらゆるシステムに共通する概念の一つとして、画像が一致したかどうかにはある程度の不確実性が内在するという点があります。そのため、この閾値を設定することで、レビューにおける誤報告率が年間1兆アカウントに1件程度と想定される水準に達することができます。つまり、既知のCSAMコレクションを保有しているユーザー以外のユーザーの写真ライブラリを閲覧することには関心がないという考えとは裏腹に、この閾値を設定することで、NCMECに報告した際に法執行機関が適切に捜査、起訴、有罪判決を下せるアカウントであることを確信できるのです。