人々がAIを交友関係のために使うことは、私たちが信じられているほど多くはない

人々がAIを交友関係のために使うことは、私たちが信じられているほど多くはない

人々が感情的なサポートを求めて AI チャットボットに頼ったり、時には人間関係を築いたりしていることに注目が集まりすぎると、そのような行動は当たり前のことだと思われがちです。

人気の AI チャットボット「クロード」を開発している Anthropic 社の新しいレポートは、異なる現実を明らかにしています。実際、人々がクロードに交友を求めることは稀で、感情的なサポートや個人的なアドバイスをこのボットに求めるのはわずか 2.9% です。

「交際とロールプレイを合わせた会話は全体の0.5%未満だ」と同社は報告書で強調した。

アンスロピック社によると、この調査はAIの「感情的な会話」への活用に関する知見の発見を目指したもので、同社ではこれを「コーチング、カウンセリング、交際、ロールプレイ、あるいは人間関係に関するアドバイスを求めてクロードと会話する個人的なやり取り」と定義している。同社は、クロードの無料版と有料版のユーザー間で行われた450万件の会話を分析した結果、クロードの利用の大部分は仕事や生産性向上に関連しており、チャットボットは主にコンテンツ作成に利用されていると述べている。

画像クレジット: Anthropic

とはいえ、Anthropic は、人々が Claude を対人関係のアドバイス、コーチング、カウンセリングに頻繁に使用しており、ユーザーが最も頻繁に求めているのは、メンタルヘルスの改善、個人および専門能力の開発、コミュニケーションおよび対人スキルの学習に関するアドバイスであるということを発見しました。

しかし同社は、ユーザーが実存的な恐怖や孤独などの感情的または個人的な苦悩に直面している場合や、実生活で有意義なつながりを築くのが難しい場合、助けを求める会話が仲間を求める会話に変わることがあると指摘している。

「より長い会話では、カウンセリングやコーチングの会話が、誰かが連絡してきた元々の理由ではないにもかかわらず、交際関係に変化することもあることに私たちは気づいた」とアントロピックは記し、長時間の会話(50件以上の人間のメッセージ)が一般的ではないと指摘した。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

アンスロピック社は、クロード自体がユーザーの要求に抵抗することはほとんどないこと、例えば危険なアドバイスの提供や自傷行為の助長といった安全基準を越えることをプログラミングによって禁じられている場合を除き、といった点についても他の知見を強調した。同社によると、ユーザーがボットに指導やアドバイスを求めると、会話は時間の経過とともにより肯定的なものになる傾向があるという。

このレポートは確かに興味深いもので、AIツールが業務以外の目的でどれほどの量と頻度で利用されているかを改めて思い起こさせてくれます。しかし、AIチャットボットは全般的にまだ発展途上であることを忘れてはなりません。幻覚を起こしたり、誤った情報や危険なアドバイスを容易に提供したりすることが知られており、Anthropic自身も認めているように、脅迫に訴える可能性さえあります。

ラムは金融・テクノロジー分野の記者兼編集者です。ロイター通信とアキュリス・グローバルで北米および欧州のM&A、株式、規制ニュース、債券市場を担当し、旅行、観光、エンターテイメント、書籍に関する執筆も行っています。

Ram からの連絡や連絡を確認するには、 [email protected]にメールを送信してください。

バイオを見る