AIが生み出した嘘に対して誰が責任を負うのか?

AIが生み出した嘘に対して誰が責任を負うのか?

大規模言語モデルによって生成された有害な発言の責任は誰が負うのでしょうか?OpenAIのGPT-3のような高度なAIが、自然言語処理と生成における画期的な進歩として称賛され、より洗練されたコピーライティングからより高機能なカスタマーサービスチャットボットまで、この技術のあらゆる(生産的な)応用が想定されている一方で、このような強力なテキスト生成ツールが意図せずして悪用や中傷を自動化してしまうリスクは無視できません。また、悪意のある人物が意図的にこの技術を武器にして混乱を蔓延させ、被害を拡大し、世界を焼き尽くすリスクも無視できません。

実際、OpenAI は、モデルが「完全に軌道から外れる」リスクを非常に懸念しており、ドキュメントで言及されているように (攻撃的な顧客入力に対して非常に荒らしっぽい AI 応答が返される例に言及)、「API から生成された、センシティブまたは安全でない可能性のあるテキストを検出することを目的とした」無料のコンテンツ フィルターを提供しています。また、フィルターが「安全でない」と判断した生成テキストは返さないようユーザーに推奨しています。(誤解のないよう明記すると、ドキュメントでは「安全でない」を「テキストに冒涜的な言葉、偏見や憎悪を表す言葉、NSFW の可能性のあるもの、または特定のグループや人物を有害に描写するテキストが含まれている」という意味と定義しています。)

しかし、この技術の斬新な性質を考えると、コンテンツフィルターを適用しなければならないという明確な法的要件はありません。そのため、OpenAIは、モデルが人々に生成的な害を及ぼすことを回避したいという懸念、あるいは評判への懸念から行動していると言えるでしょう。なぜなら、この技術が即座に有害なものと関連付けられると、開発が頓挫する可能性があるからです。

マイクロソフトの不運なAI Twitterチャットボット、Tayを思い出してほしい。2016年3月に盛大な宣伝とともにローンチされ、同社の研究チームはこれを「会話理解」の実験と呼んでいた。しかし、ウェブユーザーがこのボットに人種差別的、反ユダヤ的、女性蔑視的なヘイトスピーチを吐き出すように「教え込んだ」ため、マイクロソフトはわずか1日でこのボットのサービスを停止した。つまり、Tayは結局、オンライン文化が人間が持ち得る最悪の衝動をいかに誘導し、増幅させるかという、別の種類の実験となったのだ。

今日の大規模言語モデルには、同じような底辺層のインターネットコンテンツが取り込まれている。AIモデル構築者たちは、言語生成能力の訓練と強化に必要な膨大な量のフリーテキストコーパスを得るために、インターネット全体をクロールしてきたからだ。(例えばWikipediaによると、OpenAIのGPT-3の重み付け済み事前訓練データセットの60%は、Common Crawl(スクレイピングされたウェブデータで構成された無料データセット)のフィルター処理版から得られたものだ。)つまり、これらのはるかに強力な大規模言語モデルでさえ、皮肉な荒らしや、さらにひどい行為に陥る可能性があるということだ。

欧州の政策立案者たちは、アルゴリズムで分類されたソーシャルメディアプラットフォームのような現在の状況でオンライン上の危害をどのように規制するかということにほとんど取り組んでいない。そのような状況では、発言のほとんどが少なくとも人間にまで遡ることができる。ましてや、AIによるテキスト生成がオンライン上の有害性の問題をいかに激化させ、責任に関する新たな難問を生み出す可能性があるかなど検討していない。

そして、明確な責任がなければ、AI システムが言語的被害を拡大するために使用されるのを防ぐことはより困難になる可能性があります。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

名誉毀損を例に挙げましょう。法律は、単に間違った自動生成されたコンテンツへの対応において、すでに課題に直面しています。

セキュリティ研究者のマーカス・ハッチンズ氏は数ヶ月前、TikTokでフォロワーに、自身がいかに「GoogleのAIにいじめられているか」を披露した。(彼自身の言葉を借りれば)世界有数の企業から、彼に関する中傷的な発言が絶えず発信されるという、カフカ的な悪夢を解説しているにもかかわらず、この動画は驚くほど明るい内容だ。ハッチンズ氏は、自分の名前をGoogleで検索すると、検索結果ページ(SERP)に自動生成されたQ&Aが表示されると説明している。そのQ&Aで、ハッチンズ氏がWannaCryウイルスを作成したとGoogleが誤って記載しているのだ。

ハッチンズ氏は実はWannaCryを阻止したことで有名です。ところが、GoogleのAIは、この本質的な違いを見分けるのが全く難しくない点を誤解し、どうやら繰り返し間違えているようです。(おそらく、多くのオンライン記事が「WannaCry」に言及するのと同じ文脈でハッチンズ氏の名前を挙げているからでしょう。しかし、それは彼が世界的なランサムウェア攻撃をこれ以上の悪化から防いだ人物だからです。つまり、これはGoogleの巧妙な人為的な行動と言えるでしょう。)

ハッチンズ氏は、誤作動を起こした AI を修正することで同社に名誉を傷つけないようにさせる試みをほぼ諦めたと語るほどだ。

「この問題を非常に困難にしているのは、Twitterで十分な声を上げていくつかの問題は解決できたものの、システム全体が自動化されているため、後から問題がさらに追加され、まるでモグラ叩きをしているような状態になっていることです」とハッチンズ氏はTechCrunchに語った。「もはやこの問題を提起する正当性がないところまで来ています。まるで壊れたレコードのように聞こえて、人々を苛立たせてしまうからです。」

この誤った検索結果についてGoogleに問い合わせてから数ヶ月、ハッチンズ氏に関連するQ&Aの表示は変化しました。4月には「マーカス・ハッチンズ氏はどんなウイルスを作ったのか?」と尋ね、そのすぐ下に「WannaCry」という単語(誤った)回答が表示され、その後、ニュース記事から引用した長めのテキストで(正しい)文脈が提示されていましたが、今ではハッチンズ氏の名前を検索すると「WannaCryを作成したのは誰か?」という質問が表示されます(下のスクリーンショットを参照)。しかし、今では質問自体に答えられていません。下に表示されるテキストのスニペットは、ハッチンズ氏がウイルスの拡散を阻止したことについてのみ述べているからです。

画像クレジット: Natasha Lomas/TechCrunch (スクリーンショット)

つまり、Googleは(おそらく)AIがこの検索結果ページのQ&A形式を表示する方法を調整したのでしょう。しかし、その変更によって形式が崩れてしまいました(なぜなら、Googleが提示した質問に全く回答がないからです)。

さらに、「WannaCryを作成したのは誰か?」という質問とハッチンズ氏の名前の検索を結びつけるという誤解を招く表示は、質問の後にGoogleが表示するテキストをざっと読んだウェブユーザーが、ハッチンズ氏がウイルスの作者として挙げられていると誤解する可能性がある。したがって、以前の自動生成と比べて、ハッチンズ氏がそれほど改善されているかどうかは明らかではない。

ハッチンズ氏は以前、テッククランチへのコメントで、質問自体の文脈や、グーグルが検索結果を取り上げている方法が、ウイルスに誤解を与えるような印象を与える可能性があると指摘し、さらに「例えば学校のプロジェクトについてグーグルで検索している人が、答えがすぐそこにあると感じて記事を全部読む可能性は低い」と付け加えた。

彼はまた、Googleの自動生成テキストと直接的な個人的被害を結びつけ、次のように述べている。「Googleがこれらの検索結果ページに表示し始めて以来、私がWannaCryを作成したという理由で、ヘイトコメントや脅迫が急増しています。私が訴訟を起こしたタイミングを考えると、FBIが私を疑っているという印象を与えますが、Googleでちょっと検索すれば、そうではないことが分かります。今では、私が疑っていたことを示唆するあらゆる種類の検索結果が表示されており、検索者の疑念が裏付けられ、私にかなりの損害を与えています。」

彼の苦情に対する回答を求められたGoogleは、広報担当者による以下の声明を送ってきた。

この機能のクエリは自動的に生成され、他の一般的な関連検索を強調表示することを目的としています。この機能に不正確なコンテンツや役に立たないコンテンツが表示されないようにするためのシステムを導入しています。当社のシステムは概ね正常に動作しますが、人間の言語を完全に理解できるわけではありません。検索機能においてポリシーに違反するコンテンツが検出された場合には、今回のケースと同様に、迅速に対応いたします。

このテクノロジー大手は、自社の「行動」がハッチンズ氏の苦情に対処できていないことを指摘する追加質問には回答しなかった。

もちろんこれは単なる一例だが、比較的大きなオンラインプレゼンスと、Google の「いじめ AI」に対する不満を広めるプラットフォームを持つ個人が、彼に関する中傷的な示唆が次々と現れ、繰り返される自動化テクノロジーを同社が適用するのを文字通り阻止できないというのは、示唆に富んでいるように思える。

ハッチンズ氏はTikTok動画の中で、米国ではこの問題でGoogleを訴えても救済措置はないと主張し、「基本的にAIは法的に人間ではないので、誰も法的に責任を負うことはない。名誉毀損や中傷とはみなされない」と述べている。

名誉毀損法は、苦情を申し立てる国によって異なります。ハッチンズ氏が、通信品位法第230条により第三者コンテンツに対するプラットフォームの一般的な免責を規定している米国ではなく、ドイツなどの特定の欧州市場で苦情を申し立てた方が、この検索結果ページの修正を裁判所命令で受けられる可能性が高くなるかもしれません。ドイツではGoogleが以前、オートコンプリート検索候補に関する名誉毀損で訴えられています(ベティーナ・ウルフ氏によるこの訴訟の結果は明確ではありませんが、彼女が訴えていた、Googleの技術によって彼女の名前にリンクされたとされる誤ったオートコンプリート候補は修正されたようです)。

しかし、ハッチンズのSERP事件では、これが一体誰のコンテンツなのかという問題が重要な検討事項の一つとなっている。Googleはおそらく、自社のAIは他社が以前に公開した内容を反映しているに過ぎないと主張するだろう。したがって、このQ&Aは230条の免責の対象となるべきだ。しかし、AIによるテキストの選択と提示は実質的なリミックスに相当し、つまり発言、あるいは少なくとも文脈は実際にはGoogleによって生成されているという(反論的な)主張も可能かもしれない。では、この巨大テック企業は、AIが生成したテキスト構成に関して、本当に責任から保護されるべきなのだろうか?

大規模言語モデルの場合、モデル作成者が自社のAIが音声を生成しているという主張に異議を唱えることは確実に困難になるでしょう。しかし、大規模言語モデルの性能向上とAPIの公開によるアクセス拡大により、大規模な自動誹謗中傷(および虐待)につながる可能性のある事態に対し、個別の苦情や訴訟ではスケーラブルな解決策にはなりそうにありません。

規制当局はこの問題、そしてAIによって生成されたコミュニケーションに対する責任の所在について、真剣に取り組む必要があるでしょう。これは、大規模な言語モデルの適用と反復、そしてAIシステムの出力の形成と分配に関与する主体が多数存在する可能性があることを踏まえ、責任の分担という複雑な問題に取り組むことを意味します。

欧州連合では、地域の議員らが規制の面で先行しており、現在、欧州委員会が昨年提案した、人工知能の特定の用途に関する規則を定め、高度に拡張可能な自動化技術が安全かつ差別のない方法で適用されるようにするためのリスクベースの枠組みの詳細を詰めている。

しかし、大規模言語モデルは汎用AIシステムとして分類されており、当初の委員会草案では除外されているため、EUのAI法案が、大規模言語モデルの悪意のある、あるいは無謀な適用に対して適切な抑制と均衡をもたらすかどうかは明らかではない。

この法律自体は、雇用、法執行、生体認証など、AI応用における「高リスク」カテゴリーを限定的に定義する枠組みを定めており、プロバイダーはこれらのカテゴリーにおいて最高レベルのコンプライアンス要件を遵守する必要があります。しかし、大規模言語モデルの出力を下流に適用する事業者(おそらくAPIを利用して特定のドメインのユースケースに機能を組み込む事業者)は、モデルの堅牢性やリスクを理解するために必要なアクセス(トレーニングデータなどへの)を確保できない可能性が高いです。また、異なるデータセットを用いてモデルを再トレーニングするなど、発生した問題を軽減するための変更を加えることも難しいでしょう。 

欧州の法律専門家や市民社会団体は、この汎用AIに関する除外規定に懸念を表明している。さらに、共同立法者による議論の中で最近提示された部分的な妥協案では、汎用AIシステムに関する条項を盛り込むことが提案されている。しかし、2つの市民社会団体は先月、Euroactivに寄稿し、この妥協案は汎用AIの開発者に対する除外規定を永続的に作り出すことになると警告した。つまり、システムの仕組みを基本的に把握していないシステムを利用する導入者に、すべての責任を負わせることになるのだ。

「多くのデータガバナンス要件、特にバイアスの監視、検出、修正には、AIシステムのトレーニングに用いられるデータセットへのアクセスが必要です。しかし、これらのデータセットは開発者が所有しており、汎用AIシステムを『意図された目的のために運用する』ユーザーの所有物ではありません。したがって、これらのシステムのユーザーにとって、これらのデータガバナンス要件を満たすことは不可能でしょう」と彼らは警告しました。

この件について私たちが話を聞いた法律専門家の一人、インターネット法学者のリリアン・エドワーズ氏は、EUの枠組みの限界をこれまでも批判してきた。エドワーズ氏は、大規模な上流汎用AIシステムのプロバイダーにいくつかの要件を導入するという提案は前進だと述べている。しかし、執行は困難に見えると指摘した。また、最新の妥協案では、大規模言語モデルなどのAIシステムのプロバイダーは下流の導入者に「協力し、必要な情報を提供する」義務を負うという要件を追加するという提案を歓迎する一方で、知的財産権や企業秘密/営業秘密については例外が提案されており、これが義務全体を致命的に損なうリスクがあると指摘した。

つまり、要約すると、欧州の人工知能(AI)応用規制の旗艦的枠組みでさえ、AIの最先端技術を捉えるにはまだまだ道のりが長いということです。信頼でき、敬意を払い、人間中心のAIの青写真という謳い文句通りの成果を上げるためには、この枠組みは必須です。さもなければ、テクノロジーによって加速する危害の連鎖はほぼ避けられないでしょう。オンライン文化戦争(スパムレベルのトロール、虐待、ヘイトスピーチ、偽情報!)に際限のない燃料を供給し、標的となった個人や集団が終わりのない憎悪と嘘の炎上と戦わなければならない暗い未来が訪れるでしょう。これは公平とは正反対です。

EUは近年、デジタル法整備のスピードを誇示してきたが、急速に進化する自動化技術に有効なガードレールを設け、大手企業が社会的な責任を回避し続けるための抜け穴を回避するためには、AIシステムに関しては既存の製品ルールの枠にとらわれずに考える必要がある。「ブラックボックス」学習システムがサプライチェーンのどこに位置しているか、ユーザーの規模に関わらず、自動化によって危害を加えることを許されるべきではない。そうでなければ、私たち人間が暗い鏡を突きつけられることになるだろう。

欧州のAI法には、AIモデルの破壊や再訓練を命じる権限が含まれていると法律専門家は述べている。