AIモデルは常に私たちを驚かせてくれます。できることだけでなく、できないこと、そしてその理由についてもです。これらのシステムについて、表面的でありながらも示唆に富む興味深い新たな動作があります。それは、まるで人間のように乱数を選ぶことです。つまり、下手な数字を選ぶのです。
しかし、まず、それは一体どういう意味でしょうか? 人は数字をランダムに選ぶことはできないのでしょうか? そして、誰かがうまく選んでいるかどうか、どうすればわかるのでしょうか? 実は、これは私たち人間が抱える古くからあるよく知られた限界です。私たちはランダム性について考えすぎて誤解してしまうのです。
人にコイン投げを100回予想してもらい、それを実際のコイン投げ100回と比較してみましょう。直感に反して、実際のコイン投げはそれほどランダムではないため、ほとんどの場合、両者を区別できます。例えば、表か裏が6回か7回連続で出ることがよくありますが、人間の予測者が100回の中にそのような結果を含めることはほとんどありません。
0から100までの数字を選ぶように頼むときも同じです。1や100を選ぶ人はほとんどいません。5の倍数も珍しく、66や99のように同じ数字が繰り返される数字も珍しくありません。これらは私たちにとって「ランダム」な選択とは思えません。なぜなら、小さい、大きい、特徴的といった何かの性質を体現しているからです。その代わりに、私たちは7で終わる数字、たいていは真ん中あたりから選ぶことが多いのです。
心理学には、こうした予測可能性の例が無数にあります。しかし、AIが同じことをしても、奇妙さは変わりません。
はい、Gramener の好奇心旺盛なエンジニアたちが、非公式ではあるものの興味深い実験を行いました。それは、いくつかの主要な LLM チャットボットに 0 から 100 までのランダムな数字を選択するように依頼するというものでした。
読者の皆さん、結果はランダムではありませんでした。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日

テストした 3 つのモデルには、最も決定論的なモードにすると常に答えになる「お気に入りの」数字がありましたが、この数字は「温度」が高いときでも最も頻繁に表示され、結果の変動性を高める設定モデルによく見られます。
OpenAI の GPT-3.5 Turbo は、実際には 47 を好みます。以前は 42 を好みました。もちろん、この数字はダグラス・アダムスが『銀河ヒッチハイク・ガイド』で 人生、宇宙、そして万物に対する答えとして有名にした数字です。
Anthropic の Claude 3 Haiku は 42 でした。そして Gemini は 72 が好きです。
さらに興味深いのは、3 つのモデルすべてが、高温時でも、選択した他の数値において人間のような偏りを示したことです。
全員が低い数字と高い数字を避ける傾向にあり、クロードは87を超える数字や27を下回る数字を選んだことはなく、それも例外でした。二桁の数字は厳密に避けられ、33、55、66はありませんでしたが、77(末尾が7)は出ました。端数はほとんどありませんでしたが、ふたご座は一度、最高気温の時に暴走して0を選んだことがありました。
なぜこんなことになるのでしょう?AIは人間じゃない!なぜ「ランダムに見える」ことを気にするのでしょうか?ついに意識を獲得したのに、こうやってそれを示すなんて!
いいえ。こうした問題ではよくあることですが、答えは、擬人化が行き過ぎているということです。これらのモデルは、何がランダムで何がそうでないかなど気にしません。「ランダム性」が何なのかも知らないのです!この質問への答えは、他の質問への答えと同じです。つまり、トレーニングデータを見て、「ランダムな数字を選んでください」といった質問の後に最も頻繁に書かれていた言葉を繰り返すのです。その言葉が頻繁に現れるほど、モデルもそれを繰り返すのです。
ほとんど誰も100と答えないのに、トレーニングデータのどこに100という数字があるというのでしょう? AIモデルが知る限り、100という数字はその質問に対する許容できる答えではありません。推論能力も数値の理解力も全くないため、確率的なオウムのように答えることしかできません。(同様に、AIモデルはいくつかの数字を掛け合わせるといった単純な計算も苦手です。そもそも、「112*894*32=3,204,096」というフレーズがトレーニングデータのどこかに現れる可能性はどれほどあるでしょうか? ただし、新しいモデルは数学的な問題が存在することを認識し、サブルーチンに回すでしょう。)
これは、大規模言語モデル(LLM)の習慣と、それらが見せかけの人間らしさについて、実例を挙げて示す教訓です。これらのシステムと関わる際には、たとえ意図していなかったとしても、人間と同じように行動するように訓練されていることを常に念頭に置く必要があります。だからこそ、擬似人間性を回避したり防いだりするのは非常に難しいのです。
見出しで、これらのモデルは「人間だと思っている」と書きましたが、これは少し誤解を招くかもしれません。私たちがよく指摘するように、モデルは全く考えていません。しかし、その返答においては常に、人間を模倣しており、人間を知る必要も考える必要もありません。ひよこ豆のサラダのレシピ、投資アドバイス、あるいは乱数を求める場合でも、そのプロセスは同じです。返答が人間らしく感じられるのは、人間が作成したコンテンツから直接抽出され、リミックスされているからです。これはユーザーの利便性のため、そしてもちろん、AIの収益のために行われているのです。