
Instagramは、ダイレクトメッセージで送られてくる迷惑なヌードメッセージをフィルタリングする新しい方法をテストしており、今週初めにアプリ研究者のアレッサンドロ・パルッツィ氏が投稿した開発に関する報道を裏付けています。画像から、Instagramがヌードを含む可能性のある写真を非表示にする技術を開発していることが示唆されましたが、写真自体にはアクセスできないと説明されています。
#Instagram はチャットでのヌード保護に取り組んでいます 👀
ℹ️ お使いのデバイスの技術により、チャット内のヌードを含む可能性のある写真はブロックされます。Instagramは写真にアクセスできません。pic.twitter.com/iA4wO89DFd
— アレッサンドロ・パルッツィ(@alex193a)2022年9月19日
この開発はThe Vergeが最初に報じ、InstagramはTechCrunchに対しこの機能を認めました。同社は、この機能はまだ開発の初期段階にあり、テストは行っていないと述べています。
「ヌード写真など、望まないDMからユーザーを守るためのオプションのユーザーコントロールを開発しています」と、Metaの広報担当者リズ・フェルナンデスはTechCrunchに語った。「この技術により、Metaは誰かのプライベートメッセージを見ることも、私たちや他の誰かと共有することもありません。これらの新機能がユーザーのプライバシーを守りながら、受信メッセージをコントロールできるよう、専門家と緊密に連携しています」と彼女は付け加えた。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
Paluzzi氏が投稿した機能のスクリーンショットを見ると、Instagramはこの機能で使用するすべての画像をデバイス上で処理するため、サーバーには何も送信されないようです。さらに、信頼できる人物から送られたと思われる写真であれば、表示するかどうかを選択することもできます。この機能が広く展開されると、ヌード写真を含むメッセージを排除したいユーザー向けのオプション設定になります。
Instagramは昨年、DMコントロールを導入し、不適切な言葉、フレーズ、絵文字などを対象としたキーワードベースのフィルター機能を実現しました。また、今年初めには、ヌードや暴力描写を含む特定のコンテンツをユーザーエクスペリエンスから除外する「センシティブコンテンツ」フィルターを導入しました。
ソーシャルメディアは、一方的に投稿されるヌード写真の問題に苦慮してきました。Bumbleなどの一部のアプリは、AIを活用したぼかし機能などのツールを導入してこの問題に対処しようと試みていますが、Twitterなどのプラットフォームは、児童性的虐待コンテンツ(CSAM)や合意のないヌードの大規模な検出に苦戦しています。
プラットフォーム側からの確固たる対策が欠如しているため、立法府はこの問題を厳しい目で見ざるを得なくなっています。例えば、英国で近々成立するオンライン安全法案は、サイバーフラッシングを犯罪とすることを目指しています。先月、カリフォルニア州は、迷惑なグラフィック素材の受信者が送信者を訴えることができる規則を可決しました。テキサス州は2019年にサイバーフラッシングに関する法律を可決し、これを「軽犯罪」とみなし、最高500ドルの罰金を科すこととしました。
トピック
IvanはTechCrunchで世界の消費者向けテクノロジーの動向をカバーしています。インドを拠点とし、以前はHuffington PostやThe Next Webなどの出版物で勤務していました。
Ivan からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal の ivan.42 に暗号化されたメッセージを送信してください。
バイオを見る