「David Mayer」という名前でChatGPTがクラッシュするのはなぜ? OpenAIはプライバシーツールが不正行為を行ったと発表

「David Mayer」という名前でChatGPTがクラッシュするのはなぜ? OpenAIはプライバシーツールが不正行為を行ったと発表

会話型AIプラットフォーム「ChatGPT」のユーザーが週末、興味深い現象を発見しました。この人気チャットボットは、「デイビッド・メイヤー」について質問されても答えようとしないのです。質問しようとすると、たちまちフリーズしてしまいます。陰謀論も飛び交っていますが、この奇妙な行動の根底には、もっとありふれた理由があります。

先週末、その名前がチャットボットにとって有害だという噂が急速に広まり、チャットボットにその名前を認識させるように仕向けようとする人が続出しました。ところが、残念ながらChatGPTにその名前を綴らせようとする試みはすべて失敗し、途中で途切れてしまうのです。

「返答できません」と、もし何か言うとすれば、それはそうだろう。

画像クレジット: TechCrunch/OpenAI

しかし、一度限りの好奇心として始まったものが、ChatGPT が名前を挙げられないのは David Mayer だけではないことが人々に知られるようになると、すぐに花開きました。

他に、サービスをクラッシュさせた人物として、Brian Hood、Jonathan Turley、Jonathan Zittrain、David Faber、Guido Scorza の名前も確認されています。(その後もさらに多くの人物が発見されていると思われるため、このリストは網羅的なものではありません。)

この男たちは一体誰なのか?そして、なぜChatGPTは彼らをこれほど憎んでいるのか?OpenAIは度重なる問い合わせにすぐには返答しなかったため、私たちは自分たちでできる限りの情報をまとめるしかありません。*(下記の最新情報をご覧ください。)

これらの名前の中には、複数の人物に当てはまるものもあるかもしれません。しかし、ChatGPTユーザーが特定した潜在的な関連性の糸口は、これらの人物が公人または準公人であり、検索エンジンやAIモデルによって特定の情報が「忘れ去られる」ことを望んでいる可能性があるということです。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

例えば、ブライアン・フッド氏は、昨年私が書いた記事と同じ人物だと仮定して、特に印象に残っています。オーストラリアの市長であるフッド氏は、数十年前の犯罪の犯人として彼を誤認しているとChatGPTが非難しました。実際には、フッド氏はその犯罪を通報していました。

彼の弁護士はOpenAIと連絡を取ったものの、訴訟は起こされませんでした。彼が今年初めにシドニー・モーニング・ヘラルド紙に語ったように、「問題のコンテンツは削除され、バージョン3.5に代わるバージョン4がリリースされました。」

画像クレジット: TechCrunch/OpenAI

その他の名前の所有者として最も著名なのは、デイビッド・フェイバー氏です。彼はCNBCの長年の記者です。ジョナサン・ターリー氏は弁護士であり、Fox Newsのコメンテーターでもあります。彼は2023年後半に「スワット」(偽の911通報によって武装警察が自宅に派遣される)の被害に遭いました。ジョナサン・ジットレイン氏もまた法律の専門家で、「忘れられる権利」について広く講演しています。そして、グイド・スコルツァ氏はイタリアのデータ保護当局の理事です。

全く同じ職業に就いているわけでもなく、無作為に選ばれたわけでもありません。これらの人物は、何らかの理由で、自分に関する情報がオンライン上で何らかの形で制限されるよう正式に要請した人物である可能性があります。

話をデビッド・メイヤーに戻しましょう。弁護士、ジャーナリスト、市長、その他、その名前で知られる著名人は誰も見つけることができません(世の中には立派なデビッド・メイヤーがたくさんいますが、申し訳ありません)。

しかし、演劇と歴史を教え、ヴィクトリア朝後期と初期映画の関連性を専門とするデイヴィッド・メイヤー教授がいました。メイヤー教授は2023年夏、94歳で亡くなりました。しかし、それ以前から、このイギリス系アメリカ人の学者は、指名手配犯が偽名を使っていたため、自身の名前が指名手配犯と関連付けられるという法的問題とインターネット上の問題に直面し、旅行さえままならなくなっていました。

マイヤーは晩年まで教職を続けながらも、自分の名前と片腕のテロリストの名前を区別するために絶えず戦い続けた。

では、このことから何が言えるでしょうか?私たちの推測では、モデルは、名前に特別な処理が必要な人物のリストを取り込んだか、提供したと考えられます。法的、安全性、プライバシー、その他の懸念事項により、これらの名前は、他の多くの名前やアイデンティティと同様に、特別なルールの対象となる可能性があります。例えば、ChatGPTは、あなたが入力した名前が政治候補者のリストと一致した場合、応答を変更する可能性があります。

このような特別なルールは数多く存在し、すべての質問は回答される前に様々な処理を経ます。しかし、これらの質問後の処理ルールは、「このモデルはどの候補者の選挙結果も予測しません」といった政策発表を除いて、ほとんど公表されません。

おそらく、これらのリストの1つ(ほぼ確実に積極的にメンテナンスまたは自動更新されている)が何らかの理由で破損し、欠陥のあるコードまたは命令が呼び出された際にチャットエージェントが即座に機能しなくなったと考えられます。念のため申し上げますが、これは私たちが得た知見に基づく推測に過ぎませんが、トレーニング後のガイダンスによってAIが異常な動作をするのは今回が初めてではありません。(ちなみに、この記事を書いている時点では、「David Mayer」は一部のユーザーで再び機能するようになりましたが、他の名前では依然としてクラッシュが発生していました。)

こういった事柄にはよくあることですが、ハンロンの剃刀の原則が適用されます。つまり、愚かさ (または構文エラー) で十分に説明できるものを、決して悪意 (または陰謀) のせいにしてはいけません。

この一連の出来事は、これらのAIモデルが魔法ではないだけでなく、非常に高度なオートコンプリート機能を備え、積極的に監視され、開発企業によって干渉されていることを改めて認識させてくれる。次回、チャットボットから情報を得ようと考える際は、情報源に直接アクセスする方がよいのではないかと考えてみるべきだ。

最新情報:OpenAIは火曜日、「David Mayer」という名前が社内のプライバシーツールによってフラグ付けされていることを確認し、「ChatGPTがプライバシー保護のため、特定の情報を提供しないケースがある可能性がある」と声明で述べた。同社はツールやプロセスに関する詳細は明らかにしていない。