イーロン・マスク氏のXの一部のユーザーはファクトチェックにマスク氏のAIボット「Grok」を利用しており、人間のファクトチェッカーの間ではこれが誤情報を助長する可能性があると懸念されている。
今月初め、XはユーザーがxAIのGrokを呼び出して様々なことについて質問できるようにしました。これは、同様の体験を提供するためにX上で自動アカウントを運用しているPerplexityの取り組みと似ています。
xAIがXにGrokの自動アカウントを作成して間もなく、ユーザーはGrokに質問を投げかける実験を始めました。インドを含む一部の市場では、特定の政治的信条を標的としたコメントや質問のファクトチェックをGrokに依頼する人も現れました。
ファクトチェッカーたちは、Grokをはじめとするこの種のAIアシスタントを、事実に基づいていなくても説得力のある回答に仕立て上げることができるため、このような形で利用することに懸念を抱いています。過去には、Grokがフェイクニュースや誤情報を拡散した事例も確認されています。
昨年8月、米大統領選挙を前にグロックが生成した誤解を招く情報がソーシャルネットワーク上で表面化したことを受けて、5人の州務長官がマスク氏にグロックに重要な変更を加えるよう促した。
OpenAIのChatGPTやGoogleのGeminiといった他のチャットボットも、昨年の選挙に関する不正確な情報を生成していたことが確認されています。また、2023年には、偽情報研究者らが、ChatGPTを含むAIチャットボットが、誤解を招くような内容を含む説得力のあるテキストを簡単に生成できることを発見しました。
「GrokのようなAIアシスタントは、自然言語処理が非常に得意で、まるで人間が言ったかのような返答をします。そのため、AI製品は、たとえそれが非常に間違っている可能性があったとしても、自然で本物らしく聞こえる返答を主張しているのです。そこが危険なのです」と、ポインターの国際ファクトチェックネットワーク(IFCN)ディレクター、アンジー・ホラン氏はTechCrunchに語った。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日

AIアシスタントとは異なり、人間のファクトチェッカーは複数の信頼できる情報源を用いて情報を検証します。また、信頼性を確保するために、氏名と所属を明記し、調査結果に全面的な責任を負います。
インドの非営利ファクトチェックウェブサイト「オルトニュース」の共同設立者プラティク・シンハ氏は、Grokは今のところ説得力のある回答を出しているように見えるものの、その質は提供されるデータの質に左右されると述べた。
「どのようなデータが提供されるかを誰が決めるのか、そしてそこに政府の介入などが関わってくるだろう」と彼は指摘した。
「透明性などありません。透明性が欠けているものはすべて害を及ぼします。なぜなら、透明性が欠けているものは、どんな形にも加工できるからです。」
「誤情報を拡散するために悪用される可能性がある」
今週初めに投稿された返答の1つで、XのGrokのアカウントは、それが「誤情報を拡散しプライバシーを侵害するために悪用される可能性がある」と認めた。
しかし、自動化されたアカウントは、ユーザーが回答を受け取ったときに何の免責事項も表示しないため、たとえば回答が幻覚的なものであった場合、ユーザーに誤った情報を与えることになり、これが AI の潜在的な欠点となります。

「回答を提供するために情報を捏造する可能性がある」と、ゴアに拠点を置く学際研究集団Digital Futures Labの研究員、アヌシュカ・ジェイン氏はTechCrunchに語った。
GrokがXの投稿をどの程度トレーニングデータとして利用しているのか、また、そのような投稿のファクトチェックにどのような品質管理基準を用いているのかについても疑問が残ります。昨年の夏、GrokはXのユーザーデータをデフォルトで利用できるようにするための変更をリリースしました。
Grok のような AI アシスタントがソーシャル メディア プラットフォームを通じてアクセス可能になる場合のもう 1 つの懸念点は、ChatGPT や他のチャットボットがプライベートに使用されるのとは異なり、情報を公開して配信することです。
アシスタントから取得した情報が誤解を招く恐れがあったり、完全に正確ではない可能性があることをユーザーが十分に認識していたとしても、プラットフォーム上の他のユーザーはそれを信じてしまう可能性があります。
これは深刻な社会的損害を引き起こす可能性があります。インドでは以前、WhatsAppで拡散された誤情報が集団リンチにつながった事例がありました。しかし、これらの深刻な事件は、合成コンテンツの生成がさらに容易になり、よりリアルに見えるようになった生成AIが登場する以前に発生しました。
「Grokの回答をたくさん見れば、『まあ、大部分は正しいし、確かにそうかもしれないが、中には間違っているものもあるだろう』と思うでしょう。そして、その数は?決して少なくありません。いくつかの調査では、AIモデルのエラー率は20%であることが示されています。そして、一度間違った結果が出れば、現実世界に深刻な影響を及ぼす可能性があります」と、IFCNのホラン氏はTechCrunchに語った。
AI vs. 本物のファクトチェッカー
xAI を含む AI 企業は、AI モデルをより人間に近い形でコミュニケーションできるように改良していますが、それでも AI モデルが人間に取って代わることはできません。
ここ数ヶ月、テクノロジー企業は人間のファクトチェッカーへの依存を減らす方法を模索しています。XやMetaなどのプラットフォームは、コミュニティノートを通じてクラウドソーシングによるファクトチェックという新しいコンセプトを採用し始めています。
当然ながら、こうした変化はファクトチェッカーにとっても懸念材料となる。
Alt Newsのシンハ氏は、人々が機械と人間のファクトチェッカーを区別することを学び、人間の正確さをより重視するようになると楽観的に考えている。
「最終的には、振り子はより多くの事実確認へと戻るだろう」とIFCNのホラン氏は語った。
しかし、彼女は、その間、AIが生成した情報が急速に拡散しているため、ファクトチェッカーの仕事が増える可能性が高いと指摘した。
「この問題の多くは、あなたが本当に真実かどうかを気にしているかどうかにかかっています。あなたは、実際には真実ではないのに、真実のように聞こえ、感じられる表面的なものだけを求めているのでしょうか?なぜなら、AIの支援はまさにそれを実現するからです」と彼女は述べた。
XとxAIはコメント要請に応じなかった。