Facebook、誤情報やヘイトスピーチの検出におけるAIの進歩を詳細に説明

Facebook、誤情報やヘイトスピーチの検出におけるAIの進歩を詳細に説明

Facebookの偽情報との戦いは、このままでは永遠に終わらないだろう。しかし、だからといって同社が諦めたわけではない。むしろ、自動化システムの継続的な改善によってのみ、ヘイトスピーチや偽情報から少しでも逃れることができているのだ。CTOのマイク・シュローファー氏は本日、一連の投稿で、こうした改善の最新成果を宣伝した。

この変更は、ソーシャルネットワークがスパムや誤解を招くニュース記事、人種差別的中傷などを芽のうちに摘み取るために使用するAI関連システムに対するもので、つまり、Facebook自身のコンテンツモデレーターを含む誰かがそれらの記事を見る前に摘み取るというものだ。

改善点の一つは、Facebookがヘイトスピーチなどの検出に使用している言語分析システムです。シュローファー氏は、これは同社が極めて慎重にならなければならない分野だと説明しました。広告スペースにおける誤検知(詐欺っぽいものなど)のリスクは低いものの、ヘイトスピーチと誤認されて投稿が削除されるような誤検知は深刻な問題となる可能性があります。そのため、誤検知の判断には十分な自信を持つことが重要です。

残念ながら、ヘイトスピーチやそれに類するコンテンツは非常に微妙な場合があります。紛れもなく人種差別的と思われるものでさえ、たった一つの単語によって、その意味が覆されたり、意味が歪められたりする可能性があるのです。言語の複雑さと多様性を反映する機械学習システムを構築するには、指数関数的に増加する計算リソースが必要です。

Linformer(「線形」+「変換」)は、Facebookが1日に数十億件もの投稿をスキャンすることで膨れ上がるリソースコストを管理するために開発した新しいツールです。変換ベースの言語モデルにおける中心的注意メカニズムを正確に計算するのではなく、近似的に計算しますが、パフォーマンスのトレードオフはほとんどありません。(ここまで理解できたなら、おめでとうございます。)

これにより、言語理解は向上しますが、計算コストは​​わずかに高くなるだけです。つまり、たとえば、最初の波では質の低いモデルを使用し、疑わしいアイテムに対してのみ高価なモデルを実行する必要がなくなります。

同社の研究者たちは、テキスト、画像、そして画像内のテキストの相互作用を理解するという、やや難解な問題にも取り組んでいます。テレビやウェブサイトの偽のスクリーンショット、ミーム、その他投稿によく見られるものは、コンピューターにとって理解するのが驚くほど困難ですが、膨大な情報源となります。さらに、単語を一つ変えるだけで、視覚的なディテールはほぼそのままでも、意味が完全に逆転してしまうこともあります。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

見た目がわずかに異なる、同じ誤情報が2つ表示された例。システムは左側の誤情報を認識し、右側の誤情報も検出しました。画像クレジット: Facebook

シュローファー氏によると、Facebookは多種多様なこうした画像を見抜く能力を高めつつあるという。「まだ非常に難しい」としながらも、例えばマスクががんを引き起こすというフェイクニュースのようなCOVID-19関連の誤情報画像を見抜く能力は飛躍的に向上しているという。投稿者が操作して見た目を変えている場合でも、見抜くことができるという。

FacebookはCOVID-19に関する誤情報やヘイトスピーチへの対応を強化するためAIをアップグレードした。

これらのモデルの導入と維持も複雑で、オフラインでのプロトタイピング、導入、オンラインテスト、そしてそのフィードバックを新しいプロトタイプに反映させるという、絶え間ない作業が必要になります。Reinforcement Integrity Optimizerは新たなアプローチを採用し、ライブコンテンツにおける新しいモデルの有効性を監視し、その情報を週次レポートではなく、継続的にトレーニングシステムに中継します。

Facebookが成功していると言えるかどうかを判断するのは容易ではない。一方で、Facebookが公表する統計は、削除されたヘイトスピーチや誤情報の割合が増加しているという明るい兆しを示している。前四半期と比べて、ヘイトスピーチ、暴力的な画像、児童搾取コンテンツが数百万件も削除されている。

数字の増加は削除の仕組みが改善されたためか、あるいは単に同じ割合で削除されるコンテンツが増えたためかもしれないので、Facebook がどのようにして成功や失敗をより正確に追跡したり表現したりできるのかシュローファー氏に尋ねた。

「基準は常に変化するので、これらすべての指標を総合的に見る必要があります。長期的に見て、私たちの目標は普及率です」と彼は説明した。これは、事前に削除されたかどうかではなく、ユーザーが特定の種類のコンテンツに実際に遭遇する頻度を指している。「そもそも人々が見ることのないコンテンツを1000個削除しても、何の問題もありません。しかし、今にも拡散しそうなコンテンツを1つ削除できれば、それは大成功です。」

Facebookは現在、四半期ごとの「コミュニティ基準施行レポート」にヘイトスピーチの蔓延状況を記載しており、以下のように定義している。

ヘイトスピーチの出現率は、Facebookプラットフォーム上で違反コンテンツを目にした回数の割合を推定します。ヘイトスピーチの出現率は、Facebook上で確認されたコンテンツのサンプルを選択し、そのうちどの程度がヘイトスピーチポリシーに違反しているかを分類することで算出しています。ヘイトスピーチは言語や文化的文脈によって異なるため、これらの代表的なサンプルは、様々な言語や地域の審査担当者に送付されます。

そして、この新しい統計の最初の測定は次の通りです。

2020年7月から9月までは0.10%から0.11%でした。つまり、Facebook上のコンテンツ1万回閲覧のうち、10回から11回にヘイトスピーチが含まれていたことになります。

この数字が誤解を招くものでなければ、現在Facebook上でオンライン上にあるコンテンツの1000件に1件がヘイトスピーチに該当するということになります。これはかなり高い数字に思えます。(この数字について、Facebookにもう少し明確な説明を求めました。)

これらの推計の完全性にも疑問を呈さざるを得ません。エチオピアのような戦争で荒廃した地域からの報告によると、ヘイトスピーチが蔓延しているにもかかわらず、適切に検知、報告、削除されていないことが示唆されています。そしてもちろん、Facebook上で白人至上主義や民族主義的な民兵のコンテンツやグループが急増していることは、十分に記録されています。

シュレーファー氏は、自身の役割はまさに「実装」の側面にあり、ポリシー、人員配置、そしてソーシャルネットワークの広大な運営におけるその他の重要な部分は、多かれ少なかれ自身の管轄外であると強調した。率直に言って、世界有数の企業のCTOであり、これらの問題を真剣に受け止めているように見える彼にとって、これは少々残念な決断だった。しかし、もし彼と彼のチームが上記のような技術的解決策を熱心に追求していなかったら、Facebookは憎悪と虚偽の拡散によって完全に覆い尽くされていたかもしれない、という疑問も湧く。ただ、避けられない形で拡散されただけではない。

Facebookが#sharpiegate、#stopthesteal選挙陰謀のハッシュタグをブロック