Bumbleは迷惑ヌード写真を検出するAIをオープンソース化した

Bumbleは迷惑ヌード写真を検出するAIをオープンソース化した
バンブルの看板
画像クレジット: Bumble

出会い系アプリ「Bumble」は、「サイバーフラッシング」対策への取り組みの一環として、迷惑なわいせつ画像を検出するAIツールをオープンソース化しました。2019年に初めてリリースされた「Private Detector」(その名前の意味を少し考えてみましょう)は、Bumbleアプリ経由で送られてくるヌード画像をぼかし、受信側ユーザーに画像を開くかどうかの選択肢を提供します。

「幸いにも、当社のアプリでわいせつな画像を送信するユーザーの数はわずか0.1%とごく少数ですが、当社の規模により、わいせつな画像とそうでない画像の両方について、業界最高クラスのデータセットを収集することができ、タスクで最高のパフォーマンスを発揮できるように調整されています」と同社はプレスリリースで述べている。

AIの改良版がGitHubで公開され、商用利用、配布、改変が可能になりました。ヌード画像を検出するモデルを開発するのは最先端の技術とは言えませんが、中小企業にはおそらく開発に時間をかける余裕はありません。そのため、他の出会い系アプリ(あるいはユーザーが性器の写真を送信する可能性のあるあらゆる製品、つまりインターネット全体)がこの技術を自社製品に統合し、ユーザーを望まないわいせつなコンテンツから守ることは十分に可能でしょう。

Private Detector をリリースして以来、Bumble は米国の立法者と協力し、一方的にヌード写真を送信することに対する法的措置を強化してきました。

「インターネットを誰にとってもより安全で親切な場所にするためには、バンブルの製品エコシステムを超えてこの問題に対処し、サイバーフラッシングとしても知られる一方的なわいせつ写真の問題にどう対処するかについて、より広範な議論に参加する必要がある」とバンブルは付け加えた。

Bumble がこの AI を初めて導入したとき、同社はその精度は 98% であると主張しました。

AIはポルノ生成の精度を上げている。その結果に私たちは備えていないかもしれない。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

トピック

アマンダ・シルバーリングは、TechCrunchのシニアライターとして、テクノロジーと文化の交差点を専門に執筆しています。Polygon、MTV、Kenyon Review、NPR、Business Insiderなどの出版物にも寄稿しています。SF作家のイザベル・J・キムと共に、インターネット文化に関するポッドキャスト「Wow If True」の共同ホストを務めています。TechCrunch入社前は、草の根活動のオーガナイザー、博物館教育者、映画祭のコーディネーターとして活躍しました。ペンシルベニア大学で英文学の学士号を取得し、ラオスでプリンストン・イン・アジア・フェローを務めました。

暗号化メッセージアプリ「Signal」を使って、@amanda.100 までヒントをお送りください。その他、またはアウトリーチの確認については、[email protected]までメールでお問い合わせください。

バイオを見る