GenAIが作り話をする傾向があるというさらなる証拠が必要であれば、Googleのチャットボット「Gemini」(旧称Bard)は、2024年のスーパーボウルは既に開催されたと考えている。それを裏付ける(架空の)統計データさえも備えている。
Redditのスレッドによると、Googleの同名のGenAIモデルを搭載したGeminiは、まるで試合が昨日、あるいは数週間前に終わったかのように、第53回スーパーボウルに関する質問に答えているという。多くのブックメーカーと同様に、Geminiも49ersよりもチーフスに有利なようだ(サンフランシスコのファンの皆さん、申し訳ありません)。
ジェミニはかなり創造的に飾り立てており、少なくとも 1 つのケースでは、カンザス チーフスのクォーターバックであるパトリック マホームズが 286 ヤードを走って 2 回のタッチダウンと 1 回のインターセプトを記録し、ブロック パーディは 253 ヤードを走って 1 回のタッチダウンを記録したと示唆する選手の統計の内訳を示しています。

Geminiだけではありません。MicrosoftのCopilotチャットボットも試合は終了したと主張し、その主張を裏付ける誤った引用を提供しています。しかし、おそらくサンフランシスコ偏向を反映しているのでしょうが、チーフスではなく49ersが「最終スコア24対21」で勝利したと表示しています。

Copilotは、OpenAIのChatGPT(GPT-4)の基盤モデルとほぼ同一ではないにせよ、類似のGenAIモデルを採用しています。しかし、私のテストでは、ChatGPTは同じミスを犯す傾向が見られませんでした。

どれもかなり馬鹿げた話だ。この記者がRedditのスレッドでGeminiの回答を再現できなかったことを考えると、もしかしたらもう解決しているかもしれない。(Microsoftも修正に取り組んでいないとしたら驚きだ。)しかし、これは今日のGenAIの大きな限界、そしてGenAIに過度の信頼を置くことの危険性も示している。
GenAIモデルには真の知能はありません。AIモデルは、通常は公開Webから取得される膨大な数の例を入力し、周囲のデータの文脈を含むパターンに基づいて、データ(例:テキスト)がどの程度発生する可能性を学習します。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
この確率ベースのアプローチは、大規模に展開すると驚くほどうまく機能します。しかし、単語の範囲とその確率から意味のあるテキストが生成される可能性は高いものの、決して確実ではありません。LLMは、例えばゴールデンゲートブリッジに関する主張のように、文法的には正しいものの意味をなさないものを生成することもあります。あるいは、誤った情報を吐き出し、トレーニングデータに不正確な情報を拡散させてしまうこともあります。
これは法学修士たちの悪意によるものではありません。彼らには悪意はなく、真偽の概念は彼らにとって無意味です。彼らは単に、たとえその関連付けが正確でなくても、特定の単語やフレーズを特定の概念と関連付けることを学んでいるだけです。
したがって、ジェミニとコパイロットの 2024 年スーパーボウル (さらに言えば 2023 年も) は虚偽です。
GoogleとMicrosoftは、他の多くのGenAIベンダーと同様に、自社のGenAIアプリが完璧ではなく、実際には間違いを起こしやすいことを率直に認めています。しかし、こうした認識は小さな文字で記載されており、簡単に見落とされてしまう可能性があります。
スーパーボウルの偽情報は、GenAIが暴走した最も有害な例ではないことは確かです。おそらく、拷問を推奨したり、民族的・人種的ステレオタイプを強化したり、陰謀論について説得力のある文章を書いたりすることの方が有害でしょう。しかしながら、これはGenAIボットの発言を再確認する上で有益な警告です。それらが真実ではない可能性は十分にあります。
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る