「慎重に行動し、レッドチームで対処する」という表現は、残念ながら「迅速に行動し、物事を壊す」ほどキャッチーではありません。しかし、AIの安全性を擁護する3人の専門家は、スタートアップの創業者たちに対し、急ぎすぎると長期的には倫理的な問題につながる可能性があることを明確に示しました。
「私たちは今、この分野に膨大なリソースが投入されている転換点に立っています」と、AI Now Instituteの共同エグゼクティブディレクター、サラ・マイヤーズ・ウェスト氏は、TechCrunch Disrupt 2024のステージ上で述べた。「今、私たちが本当に住みたい世界とは何か、そして、生み出されているテクノロジーはどのような点でその世界に貢献しているのか、あるいは積極的に害を及ぼしているのか、という古くからの問いを考えずに、製品を世に送り出そうと躍起になっている現状を、私は本当に懸念しています。」
この議論は、AIの安全性の問題がかつてないほど切迫している時期に行われました。10月には、自殺した子供の遺族が、チャットボット企業Character.AIを、子供の死に関与したとして提訴しました。
「今回の事例は、AIベースの技術の急速な導入がいかに深刻な影響を及ぼすかを如実に示しています」とマイヤーズ・ウェスト氏は述べた。「これらの問題の中には、オンライン上の虐待に関するコンテンツモデレーションという、長年にわたり解決が困難とされてきた問題も含まれています。」
「私たちは、人々の生活に真に大きな影響を与える大きな力と可能性を持つものを作っています」と、アーティスト主導のソーシャルプラットフォームCaraの創設者、ジンナ・チャン氏は述べた。「Character.AIのように、誰かの感情に深く関わる製品を作るとなると、その製品の開発方法にはガードレールが必要だと考えるのは当然です。」
張氏のプラットフォーム「Cara」が急成長を遂げたのは、Metaがユーザーの公開投稿をAIの学習に利用できることを明らかにした後のことだ。張氏のようなアーティストにとって、この方針はまさに侮辱だ。アーティストはフォロワーを増やし、潜在的なクライアントを確保するために作品をオンラインに投稿する必要がある。しかし、そうすることで、彼らの作品がAIモデルの構築に利用され、いつか彼らの仕事が奪われる可能性があるのだ。

アーティストは、10億ドル以上の価値を持つAI音声クローン企業ElevenLabsのような製品によっても影響を受ける可能性があります。ElevenLabsの安全責任者であるアレクサンドラ・ペドラシェフスカ氏は、同社の高度な技術が、同意のないディープフェイクなどに悪用されないよう、万全を期しています。
「レッドチーム演習モデル、望ましくない行動の理解、そして生成AI企業が行うあらゆる新規リリースにおける意図しない結果の把握は、再び[最優先事項]になりつつあると思います」と彼女は述べた。「ElevenLabsは現在3300万人のユーザーを抱えています。これは、私たちが製品に加えるあらゆる変更の影響を受ける巨大なコミュニティです。」
ペドラゼフスカ氏は、彼女のような立場の人々がプラットフォームの安全維持に積極的に取り組む一つの方法は、ユーザーコミュニティとより密接な関係を築くことだと述べた。
「私たちは、一方が完全な反AI、反GenAIであり、もう一方が事実上この分野の規制を一切行わないよう説得しようとする、という両極端の間で活動するわけにはいきません。規制に関しては、私たちは妥協点を見出す必要があると思います」と彼女は述べた。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
TechCrunchではAIに特化したニュースレターを配信しています! 毎週水曜日に受信ボックスに配信されますので、こちらからご登録ください。
アマンダ・シルバーリングは、TechCrunchのシニアライターとして、テクノロジーと文化の交差点を専門に執筆しています。Polygon、MTV、Kenyon Review、NPR、Business Insiderなどの出版物にも寄稿しています。SF作家のイザベル・J・キムと共に、インターネット文化に関するポッドキャスト「Wow If True」の共同ホストを務めています。TechCrunch入社前は、草の根活動のオーガナイザー、博物館教育者、映画祭のコーディネーターとして活躍しました。ペンシルベニア大学で英文学の学士号を取得し、ラオスでプリンストン・イン・アジア・フェローを務めました。
暗号化メッセージアプリ「Signal」を使って、@amanda.100 までヒントをお送りください。その他、またはアウトリーチの確認については、[email protected]までメールでお問い合わせください。
バイオを見る