概要
投稿日:

NPRが閲覧したとされる内部文書によると、AI搭載のシステムが、InstagramやWhatsAppなどのMetaアプリに加えられるアップデートの最大90%の潜在的な危害とプライバシーリスクを評価する責任をまもなく負う可能性があるという。
NPRによると、Facebook(現Meta)と連邦取引委員会(FTC)の間で2012年に締結された合意では、Facebookは自社製品のプライバシーレビューを実施し、潜在的なアップデートのリスクを評価することが義務付けられている。これまで、これらのレビューは主に人間の評価者によって行われてきた。
新しいシステムでは、製品チームは仕事に関するアンケートに答えるよう求められ、その後通常はAIが特定したリスクと、アップデートや機能がリリース前に満たさなければならない要件を「即座に決定」されるという。Metaの報道によると、
このAI中心のアプローチにより、Metaは製品をより迅速にアップデートできるようになるが、ある元幹部はNPRに対し、「製品変更によるマイナスの影響が世界に問題を引き起こす前に防ぐ可能性が低くなる」ため、「より高いリスク」も生み出すと語った。
メタの広報担当者は声明の中で、同社は「プライバシープログラムに80億ドル以上を投資」しており、「規制上の義務を満たしながら、人々に革新的な製品を提供すること」に尽力していると述べた。
「リスクが進化し、プログラムが成熟するにつれて、リスクをより適切に特定し、意思決定を効率化し、従業員のエクスペリエンスを向上させるためにプロセスを強化していきます」と広報担当者は述べた。「低リスクの意思決定に一貫性と予測可能性をもたらすためにテクノロジーを活用し、新規または複雑な問題に対する厳密な評価と監視には人間の専門知識を活用しています。」
この投稿は、Meta の声明からの追加引用を加えて更新されました。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
トピック
業界最大のテクノロジーニュースを購読する