14歳少年の死はCharacter.AIの責任だとする訴訟

14歳少年の死はCharacter.AIの責任だとする訴訟

概要

投稿日:

スマートフォンに表示されるCharacter.ai
画像クレジット: Character.ai
  • カイル・ウィガース

フロリダ州の14歳の少年が自殺したことを受け、Character.AIは訴訟の対象となっている。少年の母親によると、少年は同プラットフォーム上のチャットボットに夢中になったという。

ニューヨーク・タイムズによると、オーランド在住の9年生、シーウェル・セッツァー3世は、Character.AIのAIロールプレイングアプリでチャットボットと数ヶ月間会話をしていた。セッツァーは特に「デナーリス」というボットに強い愛着を抱き、頻繁にメッセージを送信するようになり、現実世界から遠ざかるようになったという。

セッツァーは死の直前に、自殺を考えたことをボットに告白し、メッセージを送った。

今朝、Character.AIは、利用規約に違反するチャットに関する「改善された検出、対応、介入」や、ユーザーがチャットに1時間費やした場合の通知など、いくつかの新しい安全機能を展開すると発表した。

ニューヨーク・タイムズ紙が報じているように、現在、AIコンパニオンシップ・アプリの業界が急成長しているが、そのメンタルヘルスへの影響はほとんど研究されていない。

トピック

業界最大のテクノロジーニュースを購読する

AIの最新情報