Apple、プライバシー侵害の反発を受けiOS 15でのCSAM検出機能導入計画を延期

Apple、プライバシー侵害の反発を受けiOS 15でのCSAM検出機能導入計画を延期
クラウド アイコンの上にある鍵のイラスト、クラウド アイコンとロック アイコンの背景。
画像クレジット:ブライス・ダービン / TechCrunch

アップルは、顧客や政策団体からのフィードバックを理由に、先月混乱の中発表した児童性的虐待(CSAM)検出技術の導入計画を延期した。

ご記憶にあるかと思いますが、そのフィードバックは概ね否定的なものでした。電子フロンティア財団は今週、消費者から2万5000以上の署名を集めたと発表しました。さらに、アメリカ自由人権協会を含む100近くの政策・人権団体も、Appleに対し、この技術の導入計画を断念するよう求めました。

金曜日の朝の声明で、AppleはTechCrunchに次のように語った。

先月、コミュニケーションツールを利用して子どもたちを勧誘・搾取する犯罪者から子どもたちを守り、児童性的虐待コンテンツの拡散を抑制するための機能計画を発表しました。お客様、支援団体、研究者などからのフィードバックに基づき、これらの極めて重要な子どもの安全に関する機能をリリースする前に、今後数か月かけて意見収集と改善に時間をかけることを決定しました。

AppleのいわゆるNeuralHash技術は、画像を所有したり、画像の内容を知ることなく、ユーザーのデバイス上の既知のCSAMを識別できるように設計されています。iCloudに保存されているユーザーの写真は暗号化されているため、Appleでさえデータにアクセスできません。そのため、NeuralHashはユーザーのデバイス上の既知のCSAMをスキャンします。これは、クラウドプロバイダーが現在使用している包括的なスキャンよりもプライバシーに配慮しているとAppleは主張しています。

しかし、セキュリティ専門家やプライバシー擁護派は、このシステムが政府などの豊富な資金力を持つ主体によって悪用され、無実の被害者を巻き込んだり、権威主義国家が問題視する他の資料を検出するためにシステムを操作したりする可能性があると懸念を表明している。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

研究者らは、この技術の発表から数週間以内に、NeuralHashを使用して「ハッシュ衝突」を作成し、システムを騙して2つの全く異なる画像を同じものだと認識させることができたと述べた。

iOS 15は今後数週間以内にリリースされる予定です。

このレポートは、NeuralHash に関するより詳しい情報が追加され、iCloud 写真は暗号化されているもののエンドツーエンドで暗号化されていないことが明確化されて更新されました。 

トピック

ザック・ウィテカーはTechCrunchのセキュリティエディターです。彼はまた、毎週のサイバーセキュリティニュースレター「今週のセキュリティ」の執筆者でもあります。

Signalのzackwhittaker.1337宛ての暗号化メッセージで連絡を取ることができます。また、メールで連絡を取るか、確認したい場合は[email protected]までご連絡ください。

バイオを見る