
Appleは、新しい技術がiOS 15とmacOS Montereyに組み込まれると発表した数か月後、児童性的虐待スキャン機能に関するすべての言及を自社ウェブサイトからひっそりと削除した。
8月にAppleは、CSAM(児童性的虐待コンテンツ)と呼ばれる既知の児童性的虐待コンテンツを検出し、法執行機関に報告できる機能を導入すると発表しました。当時Appleは、既に違法コンテンツの可能性があるコンテンツをチェックするための包括的なスキャン機能を提供しているクラウドプロバイダーとは異なり、この技術はユーザーのデバイス上の既知のCSAMを識別できるため、画像やデバイスを所有したり、その内容を知る必要もなく、ユーザーのプライバシーを保護しながら既知の違法画像を検出できると主張していました。
これに対し、Appleは甚大な反発に直面しました。セキュリティ専門家やプライバシー擁護団体は、政府などの豊富な資金力を持つ主体がこのシステムを悪用し、無実の被害者を巻き込んだり、システムを操作したりする可能性があると懸念を表明しました。一方で、児童性的虐待の画像を特定するのに効果がないと批判する声も上がりました。この結果、数十の人権団体がAppleに対し、この物議を醸す機能の導入計画を断念するよう求めるに至りました。
不安を和らげようと猛烈な宣伝活動が行われたにもかかわらず、Appleは態度を軟化させ、CSAMスキャン機能の導入延期を発表しました。同社は「お客様、支援団体、研究者などからのフィードバックに基づき、今後数ヶ月かけてさらに時間をかけて意見を集め、改善を行った上で、これらの極めて重要な子どもの安全機能をリリースすることを決定しました」と述べています。
現在では、この機能は完全に廃止されたようです。
MacRumoursは、Appleの「子どもの安全」ウェブページからCSAMに関する記述がひっそりと削除されていることに初めて気づいた。12月10日まで、このページにはCSAM検出の詳細な概要と、物議を醸しているこの機能が「今年後半にiOS 15、iPadOS 15、watchOS 8、macOS Montereyのアップデートで提供される」という約束が掲載されていた。しかし、更新版のページではCSAM検出に関するセクションが削除されただけでなく、この技術への言及と、CSAMプロセスを説明・評価する文書へのリンクを提供するセクションも削除された。現在、Appleの「子どもの安全」ページには、メッセージにおけるコミュニケーションの安全性に関する言及と、今週初めにiOS 15で初めて導入されたSiri、Spotlight、Safari検索に関する拡張ガイダンスのみが含まれている。
Appleの広報担当者Shane Bauer氏はTechCrunchに対し、9月にこの機能の延期を発表した声明については「何も変わっていない」と語ったが、CSAM機能への言及が削除された理由は明らかにしなかった。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
AppleのCSAM検出技術が再び批判を浴びている
トピック
Apple 、 Apple Inc 、 CSAM 、 iOS 、 iOS 15 、法執行機関、 mach 、 macOS Monterey 、オペレーティングシステム、プライバシー、 Safari 、セキュリティ、 Siri 、ソフトウェア、 watchOS
カーリー・ペイジはTechCrunchのシニアレポーターとして、サイバーセキュリティ分野を担当していました。それ以前は、Forbes、TechRadar、WIREDなどのメディアに10年以上寄稿し、テクノロジー業界で活躍していました。
カーリーに安全に連絡するには、Signal +441536 853956 にご連絡ください。
バイオを見る