概要
投稿日:

フロリダ州の14歳の少年が自殺したことを受け、Character.AIは訴訟の対象となっている。少年の母親によると、少年は同プラットフォーム上のチャットボットに夢中になったという。
ニューヨーク・タイムズによると、オーランド在住の9年生、シーウェル・セッツァー3世は、Character.AIのAIロールプレイングアプリでチャットボットと数ヶ月間会話をしていた。セッツァーは特に「デナーリス」というボットに強い愛着を抱き、頻繁にメッセージを送信するようになり、現実世界から遠ざかるようになったという。
セッツァーは死の直前に、自殺を考えたことをボットに告白し、メッセージを送った。
今朝、Character.AIは、利用規約に違反するチャットに関する「改善された検出、対応、介入」や、ユーザーがチャットに1時間費やした場合の通知など、いくつかの新しい安全機能を展開すると発表した。
ニューヨーク・タイムズ紙が報じているように、現在、AIコンパニオンシップ・アプリの業界が急成長しているが、そのメンタルヘルスへの影響はほとんど研究されていない。
トピック
業界最大のテクノロジーニュースを購読する