「モデルの崩壊」:科学者はAIが自らの尻尾を食べることに対して警告

「モデルの崩壊」:科学者はAIが自らの尻尾を食べることに対して警告

神話上のウロボロスを見ると、「まあ、長くは続かないだろう」と考えるのは至極当然だ。自分の尻尾を飲み込むという強力な象徴だが、実際には難しい。AIにも当てはまるかもしれない。新たな研究によると、AIは自ら生成したデータで数回の訓練を受けた後、「モデル崩壊」のリスクにさらされる可能性があるという。

ネイチャー誌に掲載された論文の中で、オックスフォード大学のイリア・シュマイロフ率いる英国とカナダの研究者たちは、今日の機械学習モデルが「モデル崩壊」と呼ばれる症候群に対して根本的に脆弱であることを示しています。彼らは論文の序文で次のように述べています。

他のモデルによって生成されたデータから無差別に学習すると、「モデルの崩壊」、つまり時間の経過とともにモデルが真の基礎となるデータ分布を忘れてしまう退化プロセスが発生することがわかりました…

これはどのように、そしてなぜ起こるのでしょうか?このプロセスは実は非常に簡単に理解できます。

AIモデルは本質的にパターンマッチングシステムです。トレーニングデータ内のパターンを学習し、プロンプトをそれらのパターンと照合して、線上の次の点に最も可能性の高い点を埋めていきます。「美味しいスニッカードゥードルのレシピは?」と質問する場合でも、「歴代のアメリカ大統領を就任時の年齢順に並べなさい」と質問する場合でも、モデルは基本的に、その単語列の最も可能性の高い続きを返すだけです。(画像ジェネレーターの場合は異なりますが、多くの点で似ています。)

しかし、モデルは最も一般的な出力に引き寄せられる傾向があります。物議を醸すスニッカードゥードルのレシピではなく、最もポピュラーでありふれたレシピが返されるでしょう。また、画像ジェネレーターに犬の画像を作成するように指示しても、トレーニングデータに2枚しか見当たらないような珍しい犬種は生成されません。おそらくゴールデンレトリバーかラブラドールが返されるでしょう。

さて、これら2つの事実に加えて、ウェブはAI生成コンテンツで溢れかえっており、新しいAIモデルはそれらのコンテンツを取り込み、学習する可能性が高いという事実も考えてみてください。つまり、AIモデルは大量ゴールデンタグを目にすることになるということです!

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

そして、ゴールデンレトリバー(あるいは平凡なブログスパム、偽の顔、あるいは生成された歌)の大量発生で訓練を終えると、それが彼らの新たな真実となります。彼らは犬の90%が本当にゴールデンレトリバーであると考え、犬を生成するように指示されると、ゴールデンレトリバーの割合をさらに高めるようになります。そして、犬が一体何なのかをほとんど忘れてしまうまでになります。

Nature の付随解説記事に掲載されたこの素晴らしいイラストは、このプロセスを視覚的に示しています。

画像クレジット: Nature

言語モデルなどでも同様のことが起こります。これらのモデルは、基本的に学習セットの中で最も頻出するデータを答えとして優先します。はっきり言って、これは通常正しい行動です。それが、今や公開されているWebという大量のデータと接触するまでは、実際には問題になりません。

基本的に、モデルが互いのデータを食べ続けると、おそらくは無意識のうちに、徐々に奇妙で愚かな状態になり、ついには崩壊してしまう。研究者たちは数多くの例と緩和策を示しているが、少なくとも理論上はモデルの崩壊は「避けられない」とさえ述べている。

彼らが行った実験が示すような事態にはならないかもしれないが、その可能性はAI分野に関わる誰にとっても恐怖を抱かせるはずだ。学習データの多様性と深さは、モデルの品質を左右する最も重要な要素としてますます重要視されている。データが不足し、モデル崩壊のリスクが高まるとしたら、それは今日のAIを根本的に制限することになるのだろうか?もし実際にモデル崩壊が起こり始めたら、私たちはどのようにしてそれを知るのだろうか?そして、この問題を未然に防いだり、軽減したりするために私たちにできることはあるのだろうか?

少なくとも最後の質問に対する答えはおそらく「はい」ですが、それが私たちの懸念を軽減するものではありません。

データの入手先や多様性に関する定性的・定量的なベンチマークは役立つでしょうが、標準化には程遠い状況です。AI生成データに透かしを入れれば、他のAIが同様の不正行為を回避できるようになりますが、今のところ、画像に透かしを入れる適切な方法を見つけている人はいません(まあ、私は見つけましたけどね)。

実際、企業はこの種の情報を共有する意欲をなくし、代わりに、シュマイロフ氏らが「先行者利益」と呼ぶものを保持しながら、非常に価値のあるオリジナルデータや人間が生成したデータを可能な限り蓄えようとするかもしれません。

ウェブからスクレイピングした大規模データを用いた学習のメリットを維持するためには、[モデルの崩壊]を真剣に受け止めなければなりません。実際、インターネットからクロールされたデータにLLM生成コンテンツが含まれる場合、システムと人間の真のインタラクションに関する収集データの価値はますます高まるでしょう。

…技術が大量に採用される前にインターネットからクロールされたデータにアクセスしたり、人間が大規模に生成したデータに直接アクセスしたりせずに、LLM の新しいバージョンをトレーニングすることはますます困難になる可能性があります。

これを、AI モデルに対する潜在的に壊滅的な課題の山に加え、明日の超知能を生み出す今日の方法に対する反論に加えることになる。

デヴィン・コールドウェイはシアトルを拠点とする作家兼写真家です。

彼の個人ウェブサイトは coldewey.cc です。

バイオを見る