YouTubeが有害なコメントに対処するための新機能を導入

YouTubeが有害なコメントに対処するための新機能を導入

YouTubeは本日、コメント投稿者に憎悪や攻撃的な発言を投稿前に再考を促す新機能を導入すると発表しました。また、チャンネルに投稿された、自動的に審査保留されていた一部の有害なコメントを、クリエイターが読む手間を省くフィルターのテストも開始します。これらの新機能は、YouTubeプラットフォームにおけるコメントの質に関する長年の課題に対処することを目的としています。これは、クリエイターが長年訴えてきた問題です。

同社はまた、クリエイターに平等な機会を与えることを目的とした調査を近日中に実施する予定で、そのデータは、一部のクリエイターがいかにしてオンライン上のヘイトや嫌がらせにより不均衡な影響を受けているかを同社がより深く理解するのに役立つだろうと述べた。

本日公開された新しいコメント機能は、YouTube にとって大きな変化となります。

この機能は、ユーザーが動画のコメント欄に不快な内容を投稿しようとした際に表示され、「コメントは敬意を持って行ってください」と警告します。また、コメントが適切かどうかわからない場合は、サイトのコミュニティガイドラインを確認するようユーザーに促すメッセージも表示されます。

次に、ポップアップは、表示される画面で「編集」をより目立つ選択肢にして、ユーザーに「編集」ボタンをクリックしてコメントを修正するように促します。

ただし、この機能はユーザーのコメント投稿を実際に阻止するものではありません。投稿を続けたい場合は、「とにかく投稿」オプションをクリックしてください。

画像クレジット: YouTube

ユーザーに立ち止まって自分の言葉や行動を再考する時間を与えるために障害物を設置するというアイデアは、現在、いくつかのソーシャル メディア プラットフォームで実行されています。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

例えば、Instagramは昨年、不快なコメントを投稿前にフラグ付けする機能を導入しました。その後、不快なキャプションも対象に拡大しました。同社はデータを提示することなく、こうした「ナッジ」がオンラインいじめの減少に役立っていると主張しました。一方、Twitterは今年、ユーザーがツイートする前に、共有しようとしているツイートにリンクされている記事を読むよう促す機能を導入し、ワンクリックでリツイートできないようにしました。

Twitterはリツイートの仕組みを変え、選挙の誤情報の拡散を抑制しようとしている

ソーシャルプラットフォームに組み込まれたこれらの意図的な一時停止は、人々がコンテンツに対して過剰な感情や怒りで反応するのを防ぎ、代わりにユーザーの言動をより慎重にするよう促すことを目的としています。このようなユーザーインターフェースの変更は、人間の基本的な心理を巧みに利用しており、場合によっては効果を発揮する可能性もあります。しかし、プラットフォームはユーザーのエンゲージメントを阻害する可能性があるため、このような変更の導入を躊躇してきました。

YouTubeの場合、同社はTechCrunchに対し、ユーザーが繰り返しフラグを立てるコンテンツに基づいて、システムが何が不快とみなされるかを学習すると述べている。このAI搭載システムは、検出技術の向上とシステム自体のさらなる開発に伴い、今後さらに改善していくはずだ。

Googleによると、英語版Androidユーザー向けに、本日から新しいプロンプトが最初に表示される。展開は数日中に完了する予定だ。同社は、この機能が他のプラットフォームや言語にいつ対応するか、また将来的にサポートされるかどうかについて明確な約束はしていない。

さらにYouTubeは、YouTube Studioを使用してチャンネルを管理するクリエイター向けの機能のテストも開始すると発表した。

クリエイターは、自動的に確認のために保留された攻撃的かつ傷つけるようなコメントを非表示にする新しいフィルターを試すことができます。

現在、YouTube Studioユーザーは、不適切な可能性のあるコメントを自動でモデレートするオプションを選択できます。その後、ユーザーは手動で確認し、承認、非表示、または報告を選択できます。これらのコメントを保留にすることは確かに便利ですが、オンライン上の荒らしは信じられないほど残酷であるため、クリエイターがこれらのコメントに対処することは依然として困難な場合が多いです。このフィルターを使用すれば、クリエイターはこれらの不快な可能性のあるコメントを完全に回避できます。

YouTubeは、今後レビュープロセスをより簡単にするために、モデレーションツールも合理化する予定だと述べている。

これらの変更は、YouTubeがプラットフォーム上でヘイトスピーチや偽情報への対策が不十分であると厳しく批判されてきた1年を経てのことです。YouTubeのルール違反に対する「ストライク(警告)」システムは、動画は個別に削除される可能性がありますが、チャンネル自体は削除に必要なストライク数に達しない限りオンラインのままです。実際には、YouTubeクリエイターは政府高官の斬首を要求するような暴力的な発言をしても、YouTubeを使い続けることができるのです。(ちなみに、Twitterでは同様の脅迫がアカウント停止につながりました。)

スティーブ・バノンの番組は暴力を呼びかけているためTwitterとYouTubeから削除された

YouTubeは、2019年初頭以降、ヘイトスピーチ関連のコメント削除件数が1日あたり46倍に増加したと主張している。また、直近四半期には、ポリシー違反を理由に停止された180万以上のチャンネルのうち、5万4000件以上がヘイトスピーチによるものだった。これは、オンライン言説における問題の深刻化を示しており、今回の新たな措置にも影響を与えている可能性が高い。プラットフォームにはさらなる対策を講じる責任があると主張する人もいるが、そのバランスは難しい。

YouTubeは別の動きとして、クリエイターに対し、性別、性的指向、人種、民族に関する情報をYouTubeに自主的に提供するよう求める新たなアンケートを近日中に導入すると発表しました。収集されたデータを活用することで、YouTubeは、様々なコミュニティのコンテンツが検索、発見、収益化システムにおいてどのように扱われているかをより適切に分析できるようになると主張しています。

同社はまた、一部のコミュニティに他のコミュニティよりも大きな影響を与える可能性のあるヘイト、ハラスメント、差別のパターンも調査すると説明している。また、この調査により、クリエイターはYouTubeが主催する他の取り組み、例えば#YouTubeBlackクリエイター集会やFanFestなどに参加する選択肢が得られる。

この調査は2021年に開始され、クリエイターや公民権・人権専門家からの意見を参考に設計されました。YouTubeによると、収集されたデータは広告目的には使用されず、クリエイターはいつでもオプトアウトして情報を完全に削除することができます。

サラは2011年8月からTechCrunchの記者として働いています。彼女はReadWriteWebで3年以上勤務した後、TechCrunchに入社しました。記者になる前は、銀行、小売、ソフトウェアなど、様々な業界のIT業界で働いていました。

Sarah からの連絡を確認したり連絡を受けたりする場合は、[email protected]にメールを送信するか、Signal で sarahperez.01 に暗号化されたメッセージを送信してください。

バイオを見る