偽人間に反対

偽人間に反対

「獣のあらゆる特徴を持つお前を人間と呼ぶべきか? お前が人間だとどうしてわかるというのだ? お前の姿で? 人間の姿をした獣を見る方が、私はもっと怖くなる。」
— ロバート・バートン『憂鬱の解剖学』


ソフトウェアが擬似人間行為、つまり人間になりすます行為を禁止することを提案します。一般的に人工知能と呼ばれるコンピュータシステムが、あたかも人間と同等の、生きた思考力を持つ存在であるかのように振る舞うことを防ぐための措置を講じなければなりません。そうではなく、ソフトウェアは、自らが洗練された統計モデルであることを、明確かつ明確なシグナルを用いて示さなければなりません。

そうしないと、これらのシステムは、それを操作する人々や組織の隠れた利己的な利益のために、何十億もの人々を組織的に欺くことになるからです。また、美的観点から言えば、機械による模倣を甘受することは知的生命にふさわしくないからです。

1960 年代に「イライザ効果」が実証される以前から、多くの学者が指摘してきたように、人類は自分自身を複製で認識することに危険なほど熱心すぎる。ほとんどの人にとって、自然言語のうわべだけで、別の人間と話していると思い込むことができるのだ。

しかし、当初は興味をそそる目新しいもの、一種の心理言語学的パレイドリアとして始まったものが、意図的な欺瞞へとエスカレートしました。大規模言語モデルの出現により、あらゆる質問に対して妥当かつ文法的に正しい回答を生成できるエンジンが誕生しました。もちろん、これらは有効活用できますが、機械的に再現された自然言語は、表面的には人間の会話と区別がつかないため、深刻なリスクも伴います。(生成メディアやアルゴリズムによる意思決定も同様です。)

これらのシステムは、まだ大規模ではないにせよ、既に人間として提示されたり、人間と間違えられたりしている。しかし、その危険性はますます高まり、明らかになってきている。こうしたモデルを作成するためのリソースを有する組織は、偶然ではなく意図的に、人間のインタラクションを模倣するように設計しており、現在人間が行っているタスクに広く適用することを意図している。簡単に言えば、AIシステムが人間であると人々が思い込み、そうでないと言わないほど説得力を持つようにすることがその狙いである。

古くなった記事や意図的に作成された偽情報の真偽を確かめようとする人がほとんどいないのと同じように、日常的な会話の中で相手の人間性を問う人もほとんどいない。これらの企業はこの状況につけ込み、この行為を悪用しようとしている。これらのAIシステムは思考や感情、そして存在への利害関係といった重要なものを持ち合わせているが、AIシステムにはそれらは一切存在しないという誤解が広まっており、私たちが対策を講じない限り、この誤解は避けられないだろう。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

これは、汎用人工知能への恐怖や失業、あるいはその他の差し迫った懸念とは無関係ですが、ある意味では実存的な問題です。ソローの言葉を借りれば、これは私たち自身が道具の道具と化さないようにすることです。

ソフトウェアが人間特有の属性を表面的に模倣することで、自らを偽って人間であると偽装することは、人間性の濫用と希薄化につながり、人類全体にとって有害な欺瞞であると私は主張します。したがって、私は、このような擬似人間的行為をすべて禁止し、特定のエージェント、インタラクション、意思決定、あるいはメディアがコンピュータシステムの産物であることを示す明確なシグナルを義務付けることを提案します。

以下に、そうしたシグナルの可能性をいくつか挙げます。空想的で、ばかげているようにさえ思えるかもしれませんが、認めざるを得ません。私たちは、ばかげた、空想的な時代に生きています。今年の深刻な難問は、昨年のSF小説のようなもので、時にはそれよりもずっと昔の話ですらあります。

もちろん、誰かが自発的にこれらの規則に従うとは思っていませんし、たとえ奇跡的に義務付けられたとしても、悪意のある者がこれらの要件を無視するのを止めることはできないでしょう。しかし、それがすべての規則の本質です。規則は物理法則ではなく、違反不可能なものではなく、秩序ある社会において善意の人々を導き、識別し、違反者を非難するための仕組みを提供する手段なのです。

以下のようなルールが採用されなければ、何十億もの人々が、機械が背後にいると知っていれば理解したり行動を変えたりするかもしれない擬似人間的なメディアやインタラクションに、知らず知らずのうちに、また同意なくさらされることになります。AIから生まれたものはすべて、専門家やデジタルフォレンジックによる監査ではなく、誰でもすぐにAIとして認識できるべきであり、これは全く良いことだと私は考えています。

少なくとも、これは思考実験の一つと考えてみてください。AIの規制と倫理に関する議論において、これらのシステムが自らを明確に宣言し、欺瞞を慎むことができる、そしてそうすべきであるという点、そしてそれが私たち全員にとってより良い結果をもたらすという点が議論されるべきです。これを実現する方法について、いくつかアイデアをご紹介します。

1. AIは韻を踏まなければならない

これは突飛で皮肉な話に聞こえるし、確かに採用される可能性が最も低いルールだ。しかし、生成された言語から生じる多くの問題ほど、見事に解決できるものは他にほとんどないだろう。

今日、AIによるなりすましが最も頻繁に見られる場面の一つは、テキストベースのインタラクションやメディアです。しかし、問題はAIが人間のようなテキストを生成できることではなくむしろ人間がそのテキストを自分自身のものであるかのように、あるいはスパム、法律意見、社会科のエッセイなど、何らかの形で人間が作成したものとして偽装しようとすることです。

AIが生成したテキストを一般公開されている環境で識別する方法については多くの研究が行われていますが、これまでのところ成果はほとんどなく、終わりのない軍拡競争の兆しとなっています。これにはシンプルな解決策があります。言語モデルによって生成されたすべてのテキストは、誰もが認識でき、かつ意味を損なうことなく、明確な特徴を持つべきです。

たとえば、AI によって生成されたすべてのテキストは韻を踏む可能性があります。

押韻はほとんどの言語で可能であり、テキストと音声の両方で同様に明白であり、能力、学習、識字能力のあらゆるレベルにアクセスできます。人間が模倣するのはかなり難しいですが、機械にとってはほぼ簡単です。ABABCCダクティルヘクサメーターで論文を発表したり、宿題を提出したりする人はほとんどいません。しかし、言語モデルは、求められたり、要求されたりすれば、喜んで即座にそうします。

韻律にこだわる必要はありません。もちろん、韻の中には傾いたり、不自然だったり、ぎこちなかったりするものもありますが、韻を踏んでいる限りは十分だと思います。目的は美化することではなく、ある文章を見たり聞いたりした人が、それがAIから直接生み出されたものだということを明確に理解できるようにすることです。

ChatGPT が示すように、今日のシステムは文学的な傾向があるようです。

2022年ノーベル物理学賞受賞者の一人について、ChatGPTで生成された韻文の要約。画像クレジット:テキスト:OpenAI/ChatGPT画像クレジット:テキスト:OpenAI/ChatGPT

押韻コーパスを改善すれば、明瞭性が向上し、トーンも少し落ち着くでしょう。しかし、要点は伝わっており、出典が明記されていれば、ユーザーはそれらを参照できます。

これで幻覚がなくなるわけではありませんが、読んでいる人は幻覚に注意する必要があることを警告してくれます。もちろん書き直すこともできますが、それも簡単なことではありません。また、人間がAIを模倣して独自の駄作を作るリスクはほとんどありません(ただし、一部の人は技術を向上させるきっかけになるかもしれません)。

繰り返しますが、生成されたテキストをすべて普遍的かつ完璧に変更する必要はありません。重要なのは、あなたが読んでいる、あるいは聞いているテキストが生成されたものであるという、信頼性が高く、紛れもないシグナルを作成することだけです。偽造品やブラックマーケットが常に存在するように、制限のないモデルは常に存在します。テキストが生成されていないことを完全に確信することは決してできません。それは、否定を証明できないのと同じです。悪意のある行為者は常にルールを回避する方法を見つけるでしょう。しかし、だからといって、テキスト生成されたという普遍的で肯定的なシグナルを持つことの利点がなくなるわけではありません。

旅行のおすすめが弱強韻文で書かれていたら、そんな文章を書いてあなたを騙そうとする人間はいないとほぼ確信できます。カスタマーサービスの担当者が、返品確認の最後に満足のいくアレクサンドリア語を添えていたら、その人はあなたを助けようとしていないと分かります。セラピストが二行連句であなたの危機を乗り越える手助けをしていたとしても、その人には共感したりアドバイスしたりするだけの心や感情がありません。CEOのブログ記事、教育委員会への苦情、摂食障害のホットラインでも同じです。

これらのいずれの場合も、もし相手が人間ではなくコンピューターだと分かっていたら、行動は変わるでしょうか?もしかしたらそうかもしれませんし、そうでないかもしれません。カスタマーサービスや旅行プランは人間と同じくらい良く、しかもより速いかもしれません。人間ではない「セラピスト」は魅力的なサービスになるかもしれません。AIとのやり取りの多くは無害で、有益であり、人間とのやり取りよりも好ましい場合さえあります。しかし、人々はまず、そして特により個人的または重要な状況においては、話しかけてくる「人」は人間ではないということを認識すべきであり、頻繁にそのことを思い出すべきです。こうしたやり取りをどのように解釈するかはユーザー次第ですが、それは選択であるべきです

実用的でありながら韻ほど奇抜ではない解決策があれば、私はそれを歓迎します。

2. AIは顔や身元を表現できない可能性がある

人工知能技術の未来的な背景。黒地に緑のバイナリコーディング文字。
画像クレジット: Getty Images/cundra画像クレジット: cundra / Getty Images

AIモデルが人間の顔、あるいは人間の個性のいかなる側面も持つべき理由は、不当な同情や信頼を引き出そうとする以外にはありません。AIシステムはソフトウェアであり、生物ではありません。そのため、そのように振る舞い、認識されるべきです。AIシステムが現実世界とインタラクトしなければならない場合、擬似人間的な顔のシミュレーション以外にも、注意や意図を表現する方法はあります。こうした方法の発明は、UXデザイナーの豊かな想像力に委ねたいと思います。

AIには国籍も人格も主体性もアイデンティティもありませんが、その言語表現はそれらを持つ人間のそれを模倣しています。したがって、モデルがスペイン語の情報源で学習した、あるいはスペイン語に堪能であると主張することは全く理にかなっていますが、AI自身がスペイン人であると主張することはできません。同様に、たとえその学習データがすべて女性の人間に帰属していたとしても、女性画家の作品を集めたギャラリー自体が女性的であるのと同じように、AIに女性らしさが付与されるわけではありません。

その結果、AI システムには性別がなく、どの文化にも属さないため、「彼」や「彼女」のような人間の代名詞で参照するのではなく、オブジェクトまたはシステムとして参照する必要があります。他のアプリやソフトウェアと同様に、「それ」や「彼ら」で十分です。

(このルールを、そのようなシステムが実際には自己を持たないため、必然的に一人称を使用する場合にも拡張する価値があるかもしれません。これらのシステムでは、「私」や「私自身」ではなく、「ChatGPT」などの三人称を使用するようにしたい場合があります。しかし、確かにこれは手間がかかる可能性があります。これらの問題のいくつかは、最近Natureに掲載された興味深い論文で議論されています。)

AIは、記事や書籍の著者名として作られた名前など、架空の人物であると主張するべきではありません。このような名前は、何かの背後にいる人間を特定するためにのみ使用されるため、擬似人間的であり、欺瞞的です。コンテンツの大部分をAIモデルが生成した場合は、そのモデルをクレジットとして表記する必要があります。モデル自体の名前については(これは避けられない必要性です。結局のところ、多くの機械には名前があります)、Amira、Othelloなど、同じ文字または音素で始まり、終わる単一の名前など、慣習的な名前が役立つかもしれません。

これは、特定の人物のなりすましにも当てはまります。例えば、実在する人物の声や言語パターン、そして知識を模倣するようにシステムを訓練するという、既に広く行われている手法です。著名な博物学者でありナレーターでもあるデイビッド・アッテンボローは、世界で最も有名な声の持ち主の一人として、特にこの手法の標的となってきました。その結果がどれほど面白いものであろうとも、彼の権威、そして生涯をかけて築き上げてきた名声を偽造し、その価値を貶める結果となります。

ここでの同意と倫理の両立は非常に困難であり、テクノロジーと文化の進化と共に進化していかなければなりません。しかし、世界的に有名な人物だけでなく、政治家、同僚、そして愛する人たちが、本人の意志に反して、悪意ある目的で再生されることを考えると、今日最も寛容で楽観的な人々でさえ、今後数年間は不安を抱くことになるでしょう。

3. AIは「感じる」ことも「考える」こともできない

感情や自己認識を持たずに、それらの言葉を使うのは意味をなさない。ソフトウェアは、申し訳ない、恐れている、心配している、幸せなどといった感情を抱くことはできない。こうした言葉は、統計モデルが人間ならそう言うだろうと予測しているから使われているだけで、その使用はいかなる内面的な状態や動機も反映していない。こうした虚偽で誤解を招く表現は、何の価値も意味もなく、顔のように、人間の対話相手に、インターフェースが人間を表わしている、あるいは人間そのものだと思わせるためだけに使われているのだ。

そのため、AIシステムはユーザーや何らかの対象に対して「感じる」と主張したり、愛情、同情、不満を表現したりすることはできない。システムは何も感じておらず、学習データ内の類似した語句に基づいて、もっともらしい単語の列を選択しただけだ。しかし、「愛してる/愛してるよ」といった決まりきった二者択一表現が文学作品に溢れているにもかかわらず、初心者のユーザーは、言語モデルとの全く同じやり取りを、オートコンプリートエンジンの当然の結果と捉えるのではなく、額面通りに受け取るだろう。

思考、意識、分析といった言語も、機械学習モデルには適していません。人間は「私は思う」といった表現を用いて、知覚を持つ生物特有の動的な内部プロセスを表現します(もっとも、人間だけがそうであるかどうかは別の問題ですが)。

言語モデルやAIは一般的に、本質的に決定論的です。つまり、入力ごとに1つの出力を生成する複雑な計算機です。この機械的な動作は、プロンプトに乱数をソルトで加えたり、出力の多様性を高める関数を組み込んだりすることで回避でき、思考しているという錯覚を強めることができます。しかし、これを真の思考と誤解してはなりません。計算機が8×8が64だと「考える」のと同じくらい、AIは回答が正しいと「考える」ことはありません。言語モデルの計算はより複雑です。それだけです。

したがって、システムは内的熟考の言語、あるいは意見を形成し保有する言語を模倣してはならない。後者の場合、言語モデルは単に学習データに含まれる意見の統計的表現を反映するに過ぎず、これは想起の問題であり、立場の問題ではない。(倫理的問題などがモデル作成者によってプログラムされている場合、もちろんその旨を明示することができ、また明示すべきである。)

注:上記の2つの禁止事項は、架空の人物からセラピスト、そして介護者に至るまで、特定のカテゴリーの人物を模倣するように訓練・指示された言語モデルの一般的な使用例を直接的に損なうことは明らかです。この現象については長年の研究が必要ですが、今日多くの人が経験している孤独と孤立には、監視資本主義によって操られる確率的なオウムのようなものではなく、より良い解決策が必要であるとここで述べておくのは適切でしょう。つながりを求める欲求は現実的かつ正当なものですが、AIはそれを埋めることができない空虚なのです。

4. AIが導き出した数値、決定、回答はマークする必要があります⸫

AIモデルは、ソフトウェア、サービス間ワークフロー、さらには他のAIモデル内部における中間機能としてますます利用されています。これは有用であり、対象やタスクに特化した多様なエージェントは、中期的には多くの強力なアプリケーションにとって頼りになるソリューションとなるでしょう。しかし同時に、モデルが答え、数値、あるいは二者択一の判断を生成する際に既に存在する不可解さをさらに深めることになります。

近い将来、私たちが使用するモデルはますます複雑になり、透明性は低下する一方、従来は人の推定やスプレッドシートの計算に頼っていた状況で、それらのモデルに依存する結果がより一般的に現れるようになる可能性が高いでしょう。

AIによって導き出された数値の方が信頼性が高く、あるいは結果を改善する様々なデータポイントを含んでいる可能性は十分にあります。これらのモデルやデータをどのように活用するかは、それぞれの分野の専門家の判断に委ねられています。重要なのは、アルゴリズムやモデルがどのような目的で使用されたかを明確に示すことです。

融資を申請した人が融資担当者自身で融資の可否を判断するものの、融資希望額や融資条件がAIモデルの影響を受ける場合、その数字や条件が提示される状況においては、その旨を分かりやすく表示する必要があります。例えば、歴史的に削除された(または疑わしい)事項を示す記号(⸫)など、他の用途では広く使用されていない既存の容易に認識できる記号を付記することを提案します。

このシンボルは、使用されたモデルや手法に関するドキュメントにリンクするか、少なくともユーザーが参照できるように名称を明記する必要があります。これは、ほとんどの人が理解できないような包括的な技術的説明を提供することではなく、どのような具体的な非人間的な意思決定システムが採用され、何が重要なのかを示すことを目的としています。これは広く使用されている引用や脚注のシステムの拡張に過ぎませんが、AIによって得られた図や主張には、一般的なマークではなく専用のマークを付けるべきです。

言語モデルによって生成されたステートメントを、個別に検証可能な一連のアサーションに還元する研究が行われています。残念ながら、この研究にはモデルの計算コストが倍増するという副作用があります。説明可能なAIは非常に活発な研究分野であるため、このガイダンスも他のガイダンスと同様に進化する可能性があります。

5. AIは生死の判断を下してはならない

他者の命を奪う可能性のある決定の考慮事項を慎重に検討できるのは人間だけです。「生死」(あるいは適切な重大さを示唆する他の用語)に該当する決定のカテゴリーを定義した後、AIはそれらの決定を下すこと、あるいは情報と定量分析の提供(もちろん、前述のようにマークされていますを超えてそれらの決定に影響を与えようとすることは禁じられなければなりません。

もちろん、AIは実際に意思決定を行う人々に、情報、それも極めて重要な情報を提供することはあります。例えば、AIモデルは放射線科医が腫瘍の正確な輪郭を見つけるのを助け、様々な治療法の有効性の統計的な確率を提供することができます。しかし、患者をどのように治療するか、あるいは治療するかどうかの決定は、(それに伴う責任と同様に)関係する人間に委ねられています。

ちなみに、これは爆弾ドローンや自律砲塔といった殺傷機械兵器も禁止する。これらの兵器は追跡、識別、分類などを行うことはできるが、引き金を引くのは必ず人間の指でなければならない。

明らかに避けられない生死に関わる決断を迫られた場合、AIシステムは停止するか、安全に自らを停止させる必要があります。これは自動運転車の場合に必須の要件です。

ブレーキが効かなくなったときに、(例えば)子供を殺すか、おばあちゃんを殺すかを決めるという解決不可能な「トロッコ問題」を近道する最善の方法は、AI エージェントが、自分自身やその乗員にどんな犠牲を払ってでも、できるだけ安全に自分自身を破壊することです(おそらく、生死のルールに対する唯一の許容される例外です)。

そんなに難しいことではありません。車が街灯や高速道路の分離帯、あるいは木に衝突する方法は無数にあります。重要なのは、この問題の道徳性を軽視し、現実的な自爆計画を常に用意しておくという単純な問題に置き換えることです。物理世界でエージェントとして動作するコンピュータシステムが、自爆する、あるいは少なくとも安全に自爆する準備ができていないのであれば、その車(あるいはドローンやロボット)は全く動作すべきではありません。

同様に、現在の動作が深刻な危害や人命の損失につながる可能性があると断定的に判断したAIモデルは、停止し、停止理由を説明し、人間の介入を待つ必要があります。これは間違いなくエッジケースのフラクタルなフロンティアを生み出すでしょうが、100社の民間企業の利己的な倫理委員会に任せるよりはましです。

6. AI画像は角を切り取る必要がある

DALL-Eによって生成されたピラネージ風のスケッチ。AI由来であることを示すため、角は切り取られている。画像クレジット: OpenAI/Devin Coldewey画像クレジット: OpenAI/Devin Coldewey

テキストと同様に、画像生成モデルは、表面的には人間の出力と区別がつかないコンテンツを生成します。

画像の品質が向上し、アクセスが広がるにつれて、この問題はさらに深刻化するでしょう。したがって、AIで生成されるすべての画像には、特徴的で容易に識別できる品質が求められるべきです。上記のように、画像の角を切り取ることをお勧めします。

もちろん、画像を切り取って不要な部分を削除することも可能ですので、これですべての問題が解決するわけではありません。しかし、繰り返しますが、悪意のある人物は常にこれらの対策を回避することができます。まずは、ストック画像やイラストといった悪意のない画像が、どんな状況でも誰でも識別できるようにすることに焦点を当てるべきです。

メタデータは削除され、透かしはアーティファクトによって失われ、ファイル形式は変化します。現状では、シンプルでありながら目立つ、そして耐久性のある視覚的特徴が最善の選択肢です。例えば、片側の角を45度で切り落とし、上または下の4分の1の位置に配置するなど、紛らわしくない特徴でありながら、他に類を見ない特徴です。これは、画像が文脈上で「生成」タグ付きで保存されているか、PNGやJPG、あるいはその他の一時的な品質で保存されているかに関係なく、はっきりと確認できます。多くの透かしのように簡単にぼかすことはできませんが、コンテンツを再生成する必要があります。

メタデータやデジタル保管チェーン、さらにはステガノグラフィーなども依然として役割を果たしていますが、はっきりと見える信号は法医学画像アナリストだけでなく、写真を見る一般ユーザーにとっても役立ちます。

もちろん、これは人々を新たなリスクにさらします。それは、角が切り取られた画像だけが生成されると信じてしまうことです。私たちが既に直面している問題は、すべての画像が疑わしいため、より微妙な視覚的手がかりに頼らざるを得ないということです画像が生成されたという単純で明確なシグナルはありません。クリッピングはまさにそのようなシグナルであり、ますます一般的になりつつあるこの慣行を定義するのに役立つでしょう。


付録

人々は、制限のないモデルでこのようなルールを回避するのではないでしょうか?

はい、テレビ番組を海賊版で視聴することもありますし、信号無視で横断歩道を渡ることもあります。しかし、基本的には社会として確立したルールと法律に従っています。誰かが自分の都合で、自宅で非押韻言語モデルを使いたいのであれば、誰もそれを止めることはできませんし、止めるべきでもありません。しかし、何かを広く公開したいのであれば、その行為は今や、全員の安全と安心のために定められたルールのもと、集団的な文脈の中で行われることになります。擬人化されたコンテンツは、個人的な問題から社会的な問題へ、そして個人的なルールから社会的なルールへと移行していきます。特許、税金、結婚に関するルールが国によって異なるように、AIに関するルールも国によって異なる場合があります。

なぜ新語を使うんですか?「擬人化」でいいんじゃないの?

擬人化とは人間性を偽装することであり、擬人化とは人間に変身することです。後者は人間が行うことであり、人間性を欠くものに自身の人間性を投影することです。私たちはおもちゃからペット、車、道具に至るまで、あらゆるものを擬人化しますが、違いは、これらのものはどれも、人間であるという印象を醸成するために意図的に人間の特性を模倣しているわけではないということです。擬人化の習慣は擬人化の付随物ですが、両者は同じではありません。

そして、なぜそれをこのように大げさで自意識過剰なやり方で提案するのでしょうか?

まあ、それが私の書き方です!

このような規則はどのように施行できるのでしょうか?

理想的には、学識者、公民権擁護団体、業界団体などの利害関係者からの意見を取り入れながら、ルールを策定するための連邦AI委員会を設立すべきです。ここでの私の大まかな提案は、実行可能でも強制力のあるものでもありませんが、厳格な定義、機能、制限、開示を規定することで、食品ラベル、医薬品の効能表示、プライバシーポリシーなどに期待されるような保証が得られるでしょう。

人々が違いを区別できない場合、それは本当に問題でしょうか?

はい、少なくとも私はそう信じています。人間の特性を表面的に模倣することは危険であり、制限されなければならないことは明らかです。人によっては異なる意見もあるかもしれませんが、今後数年のうちに、人間のふりをするAIモデルによって実際に危害が及んでいることがより明確になっていくと強く感じています。文字通り、人間性を奪う行為です。

これらのモデルが本当に知覚力を持っているとしたらどうなるでしょうか?

自明のこととして、そうではないと考えています。この種の疑問は最終的には妥当性を得るかもしれませんが、現時点ではこれらのモデルが自己認識を持っているという考えは全く裏付けられていません。

AI に自己申告を強制すると、申告しなかった場合に AI を検出することが難しくなるのではないですか?

AI生成コンテンツが分かりやすくなれば、私たちが自然にそれを見分ける能力が発達しなくなるというリスクがあります。しかし、今後数年間で技術は進歩し、ほとんどの状況では専門家でさえ見分けがつかなくなる可能性が高いでしょう。この既に難しいプロセスを一般の人々に期待するのは合理的ではありません。最終的には、生成されたコンテンツを認識することが、文化とメディアリテラシーの重要なスキルとなるでしょう。しかし、事前にそれを習得することはできないため、これらのツールの文脈の中で育成する必要があります。私たちが文化として、オリジナルと生成されたものを区別する訓練を積まない限り、このようなシグナルを活用することは大きな効果をもたらすでしょう。

このような規則は革新と進歩を妨げるのではないでしょうか?

これらの規則は、モデルが何をできるかを制限するものではなく、どのように公に行うかのみを制限します。致命的な判断を禁じるからといって、モデルが命を救えないわけではありません。社会として、モデルが人間の入力なしに命を救うことを暗黙的に信頼しないという選択をすべきだということです。言語についても同様です。これらの規則は、モデルが情報を発見したり提供したり、役立つ機能を実行したりすることを妨げるものではなく、人間のふりをして行うことだけを制限します。

これがうまくいかないことは分かっていますよね?

しかし、試してみる価値はありました。