スタンフォード大学のAIの現状に関する386ページの報告書から得られた教訓

スタンフォード大学のAIの現状に関する386ページの報告書から得られた教訓

AIの現状に関するレポートを書くのは、まるで流砂の上に何かを作り上げるような感覚でしょう。公開ボタンを押す頃には、業界全体が足元で大きく変化しているのです。しかし、この複雑で急速に変化する領域をまとめようとスタンフォードが試みた386ページにも及ぶレポートには、依然として重要なトレンドと示唆すべき点が数多く含まれています。

人間中心人工知能研究所(IHCI)のAIインデックスは、学界と民間企業の専門家と協力し、AIに関する情報と予測を収集しました。毎年恒例の調査であり(その規模の大きさから見て、彼らはすでに次の調査の策定に熱心に取り組んでいることは間違いないでしょう)、AIに関する最新の見解ではないかもしれませんが、こうした定期的な広範な調査は、業界の動向を把握するために重要です。

今年のレポートには、「地政学やトレーニング費用、AIシステムの環境への影響、K-12のAI教育、AIに関する世論の動向など、基盤モデルに関する新たな分析」に加え、新たに100か国における政策の考察が含まれています。

最も重要なポイントを箇条書きでまとめてみましょう。

  • AI 開発は過去 10 年間で学術界主導から産業界主導へと大きく転換しており、この傾向は一向に変化の兆しを見せていません。
  • 従来のベンチマークでモデルをテストすることは難しくなってきており、ここでは新しいパラダイムが必要になる可能性があります。
  • AI のトレーニングと使用に伴うエネルギー消費量は相当なものになってきていますが、それが他の部分でどのように効率化につながるかはまだわかっていません。
  • 「AI関連の事件や論争」の件数は2012年以降26倍に増加していますが、これは実は少し少ないように思えます。
  • AI関連のスキルと求人は増加していますが、思ったほど速くはありません。
  • しかし、政策立案者たちは決定的な AI 法案を書こうと躍起になっているが、これはまったくの無駄な努力だ。
  • 投資は一時的に停滞しているが、それは過去10年間の驚異的な増加の後である。
  • 中国、サウジアラビア、インドの回答者の70%以上が、AIには欠点よりも利点が多いと感じています。アメリカ人は35%です。

しかし、この報告書は多くのトピックとサブトピックについて詳細に論じており、非常に読みやすく、技術的な内容には触れていません。386ページにわたる分析をすべて読むのは熱心な読者だけでしょうが、実際には、やる気のある人なら誰でも読むことができます。

第 3 章「技術的な AI 倫理」をもう少し詳しく見てみましょう。

バイアスと毒性を指標に還元することは困難ですが、これらの要素を定義しモデルをテストできる限り、「フィルタリングされていない」モデルは問題のある領域に陥りやすいことは明らかです。指示の調整、つまり追加の準備レイヤー(非表示のプロンプトなど)を追加したり、モデルの出力を2つ目の仲介モデルに渡したりすることは、この問題の改善に効果的ですが、完璧には程遠いものです。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

箇条書きで言及されている「AI関連の事件や論争」の増加は、次の図によく表れています。

画像クレジット:スタンフォードHAI

ご覧の通り、傾向は上向きです。これらの数値は、ChatGPTやその他の大規模言語モデルが主流になる前のものであり、画像ジェネレーターの大幅な改善は言うまでもありません。26倍の増加は、ほんの始まりに過ぎないことは間違いありません。

この図が示すように、ある方法でモデルをより公平または偏りのないものにすると、他の指標に予期しない結果が生じる可能性があります。

画像クレジット:スタンフォードHAI

報告書が指摘するように、「特定の公平性ベンチマークで優れたパフォーマンスを示す言語モデルは、ジェンダーバイアスが悪化する傾向がある」。なぜだろうか?一概には言えないが、最適化は誰もが期待するほど単純ではないことを示しているに過ぎない。こうした大規模モデルを改善するための簡単な解決策は存在しない。その理由の一つは、その仕組みを私たちが十分に理解していないことにある。

ファクトチェックは、AIに自然と適合すると思われる分野の一つです。ウェブの大部分をインデックス化しているため、AIは発言を評価し、それが真実の情報源によって裏付けられているという確信を返すことができます。しかし、これは全く事実ではありません。AIは実際には事実性の評価が特に苦手であり、リスクは信頼性の低いチェッカーになるというよりも、AI自身が説得力のある誤情報の強力な情報源になってしまうことです。AIによるファクトチェックをテストし、改善するための多くの研究とデータセットが作成されていますが、今のところ、私たちはまだ出発点にとどまっています。

幸いなことに、AIへの関心は大きく高まっています。これは明白な理由からで、人々がAIを信頼できないと感じれば、業界全体が後退してしまうからです。ACMの公平性、説明責任、透明性に関する会議への投稿は飛躍的に増加しており、NeurIPSでは公平性、プライバシー、解釈可能性といった問題がより多くの注目を集め、講演時間も増えています。

これらのハイライト集では、多くの詳細が明らかにされていません。しかし、HAIチームはコンテンツの整理に優れた仕事をしており、ここで概要をざっと読んだ後、論文全文をダウンロードして、興味のあるトピックについてさらに深く掘り下げることができます。

デヴィン・コールドウェイはシアトルを拠点とする作家兼写真家です。

彼の個人ウェブサイトは coldewey.cc です。

バイオを見る