Appleの新しい技術は、メッセージ内の性的に露骨な写真について親と子供に警告する

Appleの新しい技術は、メッセージ内の性的に露骨な写真について親と子供に警告する

Appleは今年後半、子供がメッセージアプリを通じて性的に露骨な写真を送受信した場合に、子供と保護者に警告する新しいツールを導入する予定です。この機能は、Appleのプラットフォームとサービス全体における児童性的虐待コンテンツ(CSAM)の拡散を抑制することを目的として、Appleが導入するいくつかの新技術の一部です。

こうした開発の一環として、Appleは消費者のプライバシーを尊重しながら、iPhoneやiPadなどのモバイルデバイス上やiCloudにアップロードされた写真内の既知のCSAM画像を検出できるようになると同社は述べている。

一方、新しいメッセージ機能は、お子様のオンラインコミュニケーションの活用方法を学ぶ上で、保護者がより積極的に、そして十分な情報に基づいた役割を果たせるようにすることを目的としています。今年後半にリリースされるソフトウェアアップデートにより、メッセージはデバイス上の機械学習を用いて画像添付ファイルを分析し、共有されている写真が性的に露骨な内容かどうかを判断できるようになります。この技術では、すべての処理がデバイス上で行われるため、Appleがお子様のプライベートな通信にアクセスしたり読んだりする必要はありません。クラウドにあるAppleのサーバーにデータが送信されることもありません。

メッセージスレッドでセンシティブな写真が見つかった場合、その画像はブロックされ、写真の下に「センシティブな内容が含まれている可能性があります」というラベルと、クリックして写真を表示するためのリンクが表示されます。お子様が写真を見ることを選択した場合、詳細情報を示す別の画面が表示されます。この画面では、センシティブな写真や動画には「水着で隠しているプラ​​イベートな体の一部が写っています」と「あなたのせいではありませんが、センシティブな写真や動画はあなたに危害を加えるために使用される可能性があります」というメッセージが表示されます。

また、写真やビデオに写っている人物がそれを見られたくない可能性があり、知らないうちに共有された可能性があることも示唆しています。

画像クレジット: Apple

これらの警告は、子供がコンテンツを閲覧しないことを選択することで正しい決定を下せるように導くことを目的としています。

しかし、子供がクリックして写真を見ようとすると、写真を見ることを選択した場合、保護者に通知が届くことを知らせる追加画面が表示されます。この画面では、保護者は子供の安全を願っていること、そしてプレッシャーを感じた場合は誰かに相談することを勧めていることも説明されています。また、助けを求めるためのさらなるリソースへのリンクも提供されています。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

画面下部には写真を表示するオプションがありますが、これもデフォルトの選択肢ではありません。代わりに、写真を表示しないオプションが強調表示されるように画面が設計されています。

こうした機能は、コミュニケーションを中断し、アドバイスやリソースを提供する技術を導入するだけでなく、システムが親に警告を発するため、子供を性的捕食者から守るのに役立つ可能性があります。子供が性的捕食者によって傷つけられるケースの多くは、親が子供がオンラインや電話でその相手と話し始めていることに気づいていないケースです。これは、性的捕食者は非常に巧妙で、子供の信頼を得ようとし、その後、子供を親から隔離して、コミュニケーションを秘密にさせようとするためです。また、親を性的捕食者がグルーミングしているケースもあります。

Apple の技術は、不適切な内容のコンテンツが共有されている場合に介入し、それを識別して警告することで、どちらのケースにも役立つ可能性があります。

しかし、CSAM素材の増加は、いわゆる自己生成CSAM、つまり子供が撮影した画像で、パートナーや仲間と合意の上で共有されるものが増えています。つまり、セクスティング、つまり「ヌード」の共有です。児童の性的搾取と闘うための技術開発企業であるThornの2019年の調査によると、この行為は非常に一般的になり、13歳から17歳の女の子の5人に1人が自分のヌードを共有したことがあり、男の子でも10人に1人が同じことをしたと回答しています。しかし、子供は、そのような画像を共有することで性的虐待や搾取のリスクが高まることを十分に理解していない可能性があります。

新しいメッセージ機能は、同様の保護機能も提供します。この場合、お子様が露骨な表現を含む写真を送信しようとすると、写真が送信される前に警告が表示されます。また、お子様がそれでも写真を送信することを選択した場合、保護者にメッセージが届きます。

Appleは、この新技術は今年後半にソフトウェアアップデートの一部として、iOS 15、iPadOS 15、macOS MontereyのiCloudでファミリーとして設定されたアカウントに提供される予定だと述べている。

このアップデートには、Siriと検索のアップデートも含まれており、お子様と保護者の皆様がオンラインで安全に過ごし、危険な状況で助けを得られるよう、ガイダンスとリソースが拡充されます。例えば、ユーザーはSiriにCSAM(児童虐待)や児童搾取を報告する方法を尋ねることができます。また、ユーザーがCSAMに関連するキーワードを検索した際に、Siriと検索が介入し、そのトピックが有害であることを説明し、助けを求めるためのリソースを提供します。

サラは2011年8月からTechCrunchの記者として働いています。彼女はReadWriteWebで3年以上勤務した後、TechCrunchに入社しました。記者になる前は、銀行、小売、ソフトウェアなど、様々な業界のIT業界で働いていました。

Sarah からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal で sarahperez.01 に暗号化されたメッセージを送信してください。

バイオを見る