アントロピックのユーザーは新たな選択肢に直面している – 退会するか、AIトレーニングのためにチャットを共有するか

アントロピックのユーザーは新たな選択肢に直面している – 退会するか、AIトレーニングのためにチャットを共有するか

アントロピックはユーザーデータの取り扱い方法を大幅に変更し、すべてのクロードユーザーに、9月28日までに会話をAIモデルの学習に利用するか否かの決定を求めています。この変更の理由について尋ねたところ、アントロピックはポリシー変更に関するブログ記事を紹介しましたが、私たちも独自の仮説を立てました。

まず、何が変わるのかを見てみましょう。これまで、Anthropicはモデルの学習に消費者のチャットデータを使用していませんでした。現在、同社はユーザーとの会話やコーディングセッションでAIシステムを学習させようとしており、オプトアウトしないユーザーについてはデータ保持期間を5年に延長すると発表しました。

これは大規模なアップデートです。これまで、Anthropicのコンシューマー向け製品のユーザーには、プロンプトと会話の出力は30日以内にAnthropicのバックエンドから自動的に削除されると説明されていました。ただし、「法律またはポリシーによりそれ以上の期間保存することが求められている場合」、または入力内容がポリシー違反と判断された場合は、ユーザーの入力内容と出力は最大2年間保存される可能性があります。

ここで言う「消費者」とは、Claude Free、Pro、Maxのユーザー(Claude Codeをご利用のユーザーを含む)に新しいポリシーが適用されることを意味します。Claude Gov、Claude for Work、Claude for Education、またはAPIアクセスをご利用の法人のお客様には影響はありません。これは、OpenAIがデータトレーニングポリシーから法人のお客様を同様に保護している方法です。

では、なぜこのようなことが起きているのでしょうか? アップデートに関する投稿で、Anthropicはユーザーの選択に基づいて変更点を説明しています。ユーザーはオプトアウトしないことで「モデルの安全性向上に貢献し、有害コンテンツを検出するシステムの精度を高め、無害な会話をフラグ付けする可能性を低減します」と述べています。また、「将来のClaudeモデルのコーディング、分析、推論などのスキル向上にも貢献し、最終的にはすべてのユーザーにとってより優れたモデルにつながります」と述べています。

要するに、私たちがあなたを助けるために協力してください。でも、本当のところは、もう少し無私無欲ではないかもしれません。

他の大手言語モデル企業と同様に、Anthropicは人々にブランドに対する好意的な感情を抱かせることよりも、データを必要としています。AIモデルの学習には膨大な量の高品質な会話データが必要であり、数百万件ものClaudeインタラクションにアクセスすることで、OpenAIやGoogleといった競合他社に対するAnthropicの競争力向上につながる、まさに現実世界のコンテンツが得られるはずです。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

AI開発における競争圧力に加え、これらの変更は、AnthropicやOpenAIといった企業がデータ保持慣行に関して厳しい監視に直面していることから、業界全体のデータポリシーの変化を反映しているようにも見える。例えばOpenAIは現在、ニューヨーク・タイムズ紙をはじめとする出版社が提訴した訴訟により、削除されたチャットも含め、すべての消費者向けChatGPT会話を無期限に保持するよう命じる裁判所命令に抗争している。

6月、OpenAIのCOO、ブラッド・ライトキャップ氏は、これを「包括的かつ不必要な要求」であり、「ユーザーに対して私たちが約束してきたプライバシーの約束と根本的に矛盾する」と述べました。この裁判所命令はChatGPTのFree、Plus、Pro、Teamユーザーに影響しますが、エンタープライズ顧客とゼロデータ保持契約を締結しているユーザーは引き続き保護されます。

憂慮すべきなのは、こうした利用ポリシーの変更が、多くのユーザーがそれに気づかないまま、どれほどの混乱をユーザーに引き起こしているかということだ。

公平に言えば、今はあらゆるものが急速に変化しており、テクノロジーの変化に伴ってプライバシーポリシーも変更されるのは当然です。しかし、これらの変更の多くはかなり広範囲に及ぶもので、各社の他のニュースの中でほんの少し触れられている程度です。(火曜日にAnthropicユーザー向けのポリシー変更が発表されたのは、同社がプレスページでこのアップデートを掲載した場所から見て、それほど大きなニュースだとは思えないでしょう。)

画像クレジット: Anthropic


しかし、多くのユーザーは、同意したガイドラインが変更されたことに気づいていません。なぜなら、デザインが事実上それを保証しているからです。ChatGPTユーザーの多くは、実際には何も削除していない「削除」ボタンをクリックし続けています。一方、Anthropicによる新ポリシーの導入は、おなじみのパターンを踏襲しています。

なぜそうなるのでしょうか?新規ユーザーはサインアップ時に設定を選択しますが、既存ユーザーには「消費者向け利用規約とポリシーの更新」という大きな文字と目立つ黒い「同意する」ボタンが表示され、その下に小さな文字でトレーニング許可用のトグルスイッチが表示され、自動的に「オン」に設定されます。

本日、The Verge が指摘したように、このデザインでは、ユーザーがデータ共有に同意していることに気づかずにすぐに「同意する」をクリックする可能性があるという懸念が生じます。

一方、ユーザーの意識向上の重要性はかつてないほど高まっています。プライバシーの専門家は長年にわたり、AIを取り巻く複雑さにより、ユーザーから意味のある同意を得ることはほぼ不可能だと警告してきました。バイデン政権下では、連邦取引委員会も介入し、AI企業が「利用規約やプライバシーポリシーを密かに変更したり、ハイパーリンクや法律用語、あるいは細則に隠蔽したりする」行為をした場合、法的措置の対象となるリスクがあると警告しました。

現在 5 人の委員のうち 3 人だけで運営されている委員会が、今日でもこうした慣行を監視しているかどうかは未解決の問題であり、私たちはこの疑問を FTC に直接提起しました。