OpenAIに個人データの削除やAIのトレーニングへの使用停止を依頼する方法

OpenAIに個人データの削除やAIのトレーニングへの使用停止を依頼する方法

ヨーロッパのChatGPTユーザーは、OpenAIが提供するウェブフォームやその他の手段を使用して、チャットボットによる個人情報の処理(および生成)を停止するために、個人データの削除をリクエストできるようになりました。また、AIの学習にデータが使用されることを拒否することもできます。

なぜ人は自分の個人データがAIの餌食になることを望まないのでしょうか? 考えられる理由は数多くありますが、中でもOpenAIがプライバシーが人権であるにもかかわらず、そもそも許可を求めなかったという事実は特筆に値します。言い換えれば、これほど強力でアクセスしやすい技術が、名前の付けられた個人についてどのような情報を明らかにするのに利用されるのか、人々は懸念しているのかもしれません。あるいは、大規模言語モデル(LLM)が偽情報を作り出すという根本的な欠陥に異議を唱えているのかもしれません。

ChatGPT は、名前の挙がった個人についても、熟練した嘘つきであることがすぐに明らかになりました。AI があなたやあなたの身近な人々に関する偽のニュースを自動化できれば、評判が損なわれたり、その他の被害が生じるリスクがあります。

そして、あなたが個人的にどのように会話するかを高度に訓練されて模倣した AI モデルが悪用された場合、あなた (またはあなたの愛する人) にどのような影響を与える可能性があるか想像してみてください。

知的財産権に関する問題がもう一つあります。ホワイトカラーの仕事をしている人は、生成型AIによって特定のライティングスタイルやその他の専門分野の専門知識がボタン一つで商業的に利用され、自分の労働力が不要になったり、価値が下がったりするのではないかと懸念するかもしれません。そして繰り返しになりますが、こうしたAIモデルを開発した巨大テック企業は、個人が営利目的でデータを利用した場合、通常、いかなる報酬も支払っていません。

また、AI チャットボットが偏見や差別を拡大するリスクなど、個人的な懸念ではなく、自分の情報が一切影響を及ぼさないことを願う場合もあるでしょう。

あるいは、データ依存型のAIサービスが普及する時代に、膨大なデータが少数の巨大テクノロジー企業に蓄積され続けることによる競争市場とイノベーションの未来を懸念している人もいるかもしれません。自社のデータをプールから排除することは大海の一滴に過ぎませんが、積極的な反対意見を表明する一つの方法であり、他の人々にも同様の行動を促す可能性があり、集団的な抗議行動へと発展していく可能性があります。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

さらに、AIの適用方法を規制するより厳格な法律が制定される前に、データが不透明に利用されることに不安を感じるかもしれません。そのため、このような強力なテクノロジーを安全かつ信頼できる形で利用するための適切な法的ガバナンスの枠組みが整備されるまでは、データを公開しない方が良いかもしれません。つまり、生成AIオペレーターに対するより強力なチェックとバランスが整うまで待つ方が良いのです。

個人がビッグデータマイニングを行うAI巨大企業から自分の情報を守りたい理由は数多くありますが、現時点では提供されている制御手段は限られています。そして、こうした限定的な制御手段は、主にデータ保護法が既に適用されている欧州のユーザーのみが利用可能です。

利用可能なデータ権利を行使する方法の詳細については、下にスクロールするか、コンテキストについて読み進めてください。

EU議員らは生成AIの規制に段階的なアプローチを検討

ウイルス的センセーションから規制介入へ

ChatGPTは今年、絶対に見逃せない存在でした。何でも質問できる「汎用」AIチャットボットのバイラル化により、この技術はここ数ヶ月、主要メディアを席巻しています。あらゆる分野のコメンテーターが、人間を模倣したような応答性(ただし、人間ではない)に驚嘆しています。このチャットボットは、Webベースのチャット(およびその他のデータソース)を大量に学習し、人間のコミュニケーションを巧みに模倣する機能を備えているのです。

しかし、このように有能そうな自然言語技術の存在により、ChatGPT がどのように開発されたかという詳細に注目が集まりました。

特に、ChatPTをめぐる話題は、欧州連合のプライバシーおよびデータ保護規制当局から特に注目を集めている。3月末、イタリアのデータ保護監視機関がEUの一般データ保護規則(GDPR)に基づく権限に基づいて早期介入した結果、先月初めにChatGPTが一時的に停止された。

監視機関が提起した大きな懸念は、OpenAIがこの技術を開発する際に人々のデータを合法的に使用したかどうかである。監視機関はこの問題について調査を続けている。

イタリアの監督機関は、OpenAIが個人情報の利用方法に関する情報の質にも問題があると指摘している。適切な情報開示がなければ、GDPRの公平性と説明責任の要件を満たしているかどうかも疑問視される。

さらに、規制当局はChatGPTを利用する未成年者の安全性を懸念しており、同社に年齢確認技術の導入を求めています。

EUの一般データ保護規則(GDPR)は、域内の人々に、自分に関する誤った情報の訂正やデータの削除を求める権利など、一連のデータ管理権も与えています。そして、ここ数ヶ月でAIチャットボットについて私たちが学んだことがあるとすれば、それは彼らがいかに簡単に嘘をつくかということです。(テクノロジーソリューション主義者の言葉で言えば、「幻覚を起こす」ということです。)

イタリアのデータ保護当局が介入し、一連のGDPR違反の疑いがあるとOpenAIに警告した直後、同社はいくつかの新しいプライバシーツールを発表した。チャットボットとのすべてのやり取りを記録するチャット履歴機能をオフにするボタンをユーザーに提供し、これにより、履歴機能が無効になっている間に開始された会話がAIモデルのトレーニングと改善に使用されなくなるとしている。

その後、OpenAIはプライバシーに関する情報開示を行い、追加の規制措置を提示しました。これは、イタリアのデータ保護局がEUのプライバシー規則を遵守するための暫定的な対策パッケージの実施期限を定めたタイミングに間に合うように行われたものです。結果として、OpenAIはウェブユーザーに、情報の利用方法についてある程度の発言権を与えています。ただし、提供されている譲歩のほとんどは地域限定です。したがって、ビッグデータ駆動型AIマイナーから情報を守るための第一歩は、データ保護権が存在し、積極的に執行されている欧州連合(または欧州経済地域)に居住することです。

現状では、英国民はEUのデータ保護枠組みが国内法に組み込まれていることから依然として恩恵を受けており、GDPRの権利も全面的に享受している。ただし、ブレグジット後の政府による改革により、国のデータ保護体制は弱体化することが見込まれるため、国内のアプローチがどのように変化するかはまだ不明である。(英国の閣僚らは最近、当面はAIの適用に関する特別な規則を導入する予定はないとの見解を示した。)

欧州以外では、カナダのプライバシーコミッショナーが、この技術に関する苦情を調査し​​ている。他の国々ではGDPRに類似したデータ保護制度が制定されており、規制当局には行使できる権限が存在する。

https://[削除されたリンク]/2023/05/01/chatgpt-everything-you-need-to-know-about-the-ai-powered-chatbot/?utm_source=internal&utm_medium=WPunit

OpenAIにあなたの個人データを削除するよう依頼する方法

OpenAIは、「特定の法域」(EUなど)の個人は、このフォームに記入することで、AIモデルによる個人情報の処理に異議を申し立てることができると述べています。これには、AIが生成した自分に関する参照情報の削除を要請する権利も含まれます。ただし、OpenAIは「適用法に従って」プライバシーの要請と表現の自由とのバランスを取る必要があるため、すべての要請を承認するわけではないと指摘しています。

あなたに関するデータの削除をリクエストするためのウェブフォームは「OpenAI個人データ削除リクエスト」です。フォームへのリンクはこちらです:https://share.hsforms.com/1UPy6xqxZSEqTrGDh4ywo_g4sk30

ウェブ ユーザーは、リクエストの対象となるデータ主体の連絡先データと詳細、この人物に適用される法律の国、この人物が公人であるかどうかの指定 (公人である場合は、どのような種類の公人であるかに関する詳細なコンテキストの提供)、データ主体について言及したモデルからの応答を生成したプロンプトの形式でのデータ処理の証拠、および関連する出力のスクリーンショットの提供を求められます。

また、ユーザーは、フォームを送信する前に、提供された情報が正確であることを宣誓し、不完全な送信に対して OpenAI が対応しない場合があることを認めるよう求められます。

この手続きは、Googleが長年提供してきた「忘れられる権利」ウェブフォームに似ている。当初は、不正確、古い、または無関係な個人データを検索エンジンの結果から削除することでGDPRの権利を行使しようとする欧州の人々を対象としていた。

GDPR は、データの削除を要求すること以外にも、情報の修正、制限、個人データの転送を求めるなど、個人にいくつかの権利を与えています。

OpenAIは、個人がトレーニング情報に含まれる可能性のある個人情報に関して、[email protected]にメールを送信することで、そのような権利を行使できると規定しています。しかし、同社はイタリアの規制当局に対し、自社のモデルによって生成された不正確なデータを修正することは現時点では技術的に不可能であると述べています。そのため、AIによって生成された偽情報の修正を求めるメールによるリクエストには、個人データの削除を提案する形で対応すると思われます。(もしそのようなリクエストを送信し、OpenAIから回答があった場合は、[email protected] にメールでご連絡ください。)

OpenAIはブログ投稿の中で、他の理由によりリクエストを拒否する(または部分的にしか対応しない)可能性があることも警告しており、次のように記しています。「プライバシー法に基づき、一部の権利は絶対的ではない場合があることにご注意ください。正当な理由がある場合、リクエストを拒否することがあります。ただし、個人情報の保護を最優先し、適用されるすべてのプライバシー法を遵守するよう努めています。問題への対応が適切でないと思われる場合は、地域の監督機関に苦情を申し立てる権利があります。」

ChatGPTが欧州人のデータ主体アクセス要求(DSAR)をどのように処理するかによって、同社がユーザーからの苦情の波に直面するかどうかが決まり、将来的に同地域での規制強化につながる可能性がある。

OpenAIはEUユーザーデータの処理を担当する現地法人を設立していないため、加盟国の監視機関はそれぞれが管轄地域における懸念事項に対処する権限を有しています。そのため、イタリアは迅速に行動を起こしました。

OpenAIにデータをAIの訓練に使用しないよう依頼する方法

イタリアのデータ保護当局の介入を受けて、OpenAI はプライバシー ポリシーを改訂し、AI をトレーニングするために人々のデータを処理する際に依拠する法的根拠は、GDPR で「正当な利益」(LI) と呼ばれるものであることを明記しました。

OpenAIのプライバシーポリシーでは、「あなたの個人情報」を処理する法的根拠として以下を挙げています(強調は筆者による)。

当社のサービスを不正使用、詐欺、またはセキュリティリスクから保護すること、または当社のサービスを開発、改善、または促進すること(モデルのトレーニングを含む)に関する当社の正当な利益。これには、アカウント情報、コンテンツ、ソーシャル情報、および技術情報の処理が含まれる場合があります。

イタリアの監視機関(およびその他)が調査を続けている中、汎用 AI チャットボットに LI を利用することが、GDPR に基づく処理の適切かつ有効な法的根拠とみなされるかどうかについては、依然として疑問符が付きます。

これらの詳細な調査は、最終的な決定に至るまでにしばらく時間がかかる見込みです。その結果、OpenAIがこの処理にLIを使用することを停止するよう命じられる可能性があります(この場合、OpenAIはユーザーに同意を求める選択肢を持つことになりますが、これまでの規模と速度でこの技術を開発する能力が複雑になります)。ただし、EUのデータ保護当局は最終的に、この状況におけるLIの使用を許容すると判断する可能性があります。

一方、OpenAI は、LI に依存しているという主張の結果として、ユーザーに特定の権利を提供することが法的に義務付けられています。特に、これは処理に異議を申し立てる権利を提供しなければならないことを意味します。

Facebook 社も最近、個人情報処理の法的根拠として LI を主張するようになった後、行動ターゲティング広告を目的としたデータ処理のオプトアウトを欧州のユーザーに提供せざるを得なくなった。(さらに同社は、GDPR がダイレクトマーケティングのためのあらゆるデータ処理を絶対要件としていることを踏まえ、これまで広告ターゲティング処理のオプトアウトを提供していなかったとして英国で集団訴訟に直面している。これはおそらく、OpenAI がアドテク大手の Facebook とは事業内容が異なることを強調することに熱心である理由をある程度説明している。そのため同社は、「当社はサービスの販売、広告、または人々のプロファイル作成にデータを使用しているのではなく、モデルを人々にとってより役立つものにするためにデータを使用している」と主張している。)

ChatGPT の開発元は、プライバシー ポリシーで、LI への依存に伴う異議申し立ての要件について簡単に触れており、オプトアウトのリクエストに関する詳細情報をユーザーに示しています。「モデルのトレーニングを目的としたお客様の情報の使用をオプトアウトする方法については、こちらをご覧ください。」と書かれています。

このリンクは別のブログ記事につながり、AIは「時間とともに向上する」という概念を推奨すると同時に、「あなたのデータを私たちと共有することで…私たちのモデルの精度が向上し、あなたの特定の問題をより良く解決できるようになり、また、モデルの全体的な機能と安全性も向上します」と主張し、ユーザーに個人データ処理への異議申し立て権を行使しないよう促しています。(しかし、もしデータが既に許可なく取得されていたら、それをデータ共有と呼ぶことができるのでしょうか?)

OpenAI は、ユーザーに、トレーニングからデータをオプトアウトするためのいくつかの選択肢を提供します。(別の) Web フォーム経由か、アカウント設定で直接選択できます。

ChatGPTの個々のユーザー向けの「ユーザーコンテンツオプトアウトリクエスト」と呼ばれるこのWebフォームに入力することで、AIのトレーニングにデータが使用されるのをオプトアウトできます。

ユーザーは、ChatGPTアカウント設定(「データコントロール」内)から、データのトレーニングを無効にすることもできます。アカウントをお持ちの場合のみ有効です。

しかし、注意してください!オプトアウトするための設定ルートには、OpenAI がユーザーのデータを使用して AI モデルをトレーニングする能力をユーザーが停止することを阻止しようとするダークパターンが満載です。

(どちらの場合も、ChatGPT の非ユーザーがデータ処理をオプトアウトする方法が明確ではありません。同社はアカウントの作成を義務付けているか、フォームを通じてアカウントの詳細を要求しているためです。そのため、明確にするために質問しました。)

データ コントロール メニューを見つけるには、画面の左下にあるアカウント名の横にある 3 つのドット (チャット履歴バーの下) をクリックします。次に、「設定」をクリックします。次に、前述のデータ コントロールを「表示」をクリックして (この切り替えを隠すためのダーク パターンが便利です)、切り替えをスライドして「チャット履歴とトレーニング」をオフにします。

OpenAIが、ユーザーが設定からトレーニングをオプトアウトすることを推奨していないと言うのは控えめな表現です。特に、この操作はChatGPTの履歴にアクセスできなくなるという不便さと関連付けられているからです。しかし、設定を再びオンにすると、チャットは再び表示されます(少なくとも、以前公開されたデータ保持ポリシーに従い、30日以内に履歴を再度有効にした場合は)。

さらに、トレーニングを無効にすると、過去のチャット履歴のサイドバーが、目線の周囲に表示される明るい色のボタンに置​​き換えられ、ユーザーに「チャット履歴を有効にする」という指示を常に表示します。このボタンには、クリックするとOpenAIがユーザーのデータでトレーニングする機能が再び有効になることは記載されていません。代わりに、OpenAIは意味のない電源ボタンアイコンを配置しています。これはおそらく、ユーザーが機能を有効にしてデータへのアクセスを回復するように促すための、もう一つの視覚的なトリックなのでしょう。

ChatGPTチャット履歴有効化ボタン
画像クレジット: Natasha Lomas/TechCrunch

設定でトレーニングをブロックする方式を選択したユーザーはChatGPTのチャット履歴機能を失うことになるため、Webフォームを送信する方がより良い方法のように思えます。なぜなら、会話をトレーニングの材料にしないよう依頼したとしても、理論的には機能を維持できる可能性があるからです。(そして少なくとも、異議申し立てを正式な形式で記録したことは、明るい緑色のボタンのオン/オフを切り替える以上の意味を持つはずです。)

とはいえ、本稿執筆時点では、フォーム経由で異議申し立てがあった場合、OpenAIがAIのトレーニングに使用しないデータを求めるウェブフォームの送信を処理した後、チャット履歴機能を無効にするかどうかは不明です。(この点について改めて同社に説明を求めており、回答が得られ次第、本稿を更新します。)

OpenAI のブログ投稿には、オプトアウトに関するさらなる注意事項が書かれています。

当社では、お客様とのやり取りから得られた特定のデータを保持していますが、モデルの改善に使用する前に、トレーニングデータセットに含まれる個人情報の量を削減するための措置を講じています。このデータは、ユーザーのニーズや嗜好をより深く理解し、時間の経過とともにモデルの効率性を向上させるのに役立ちます。

つまり、ユーザーがAIのトレーニングに利用されないように個人情報の提供を求めた際に、トレーニングプールからファイアウォールで保護される個人データの具体的な内容が明確ではないのです。それとも、入力した他の種類の情報はAIによって処理され続ける可能性があるのでしょうか?
つまり、これはごまかしの匂いがします。(あるいは、業界ではコンプライアンス・シアターと呼ばれるものです。)

問題は、GDPRが個人データを広範に定義していることです。つまり、規制の枠組みに該当するのは、氏名やメールアドレスなどの直接的な識別子だけでなく、自然人を特定するために使用または組み合わせることができる多くの種類の情報です。つまり、ユーザーがオプトアウトした場合、OpenAIは実際にデータ処理活動をどの程度削減しているのか、という重要な疑問が生じます。透明性と公平性は、GDPRにおけるもう一つの重要な原則です。そのため、こうした疑問は、欧州のデータ保護機関にとって、当面の間、多忙を極めるものとなるでしょう。

ChatGPTはプライバシー開示とコントロールを追加し、イタリアでサービスを再開しました

EUでFacebookを使っている?不気味な広告をオプトアウトする方法