火曜日、BBCは、ウーバーイーツの配達員で黒人のパ・エドリッサ・マンジャンさんが、ウーバーのプラットフォームで食品配達の仕事を受けるために2019年11月から使用していたアプリを「人種差別的な」顔認証チェックによってアクセスできなかった後、ウーバーから支払いを受けたと報じた。
このニュースは、AIシステムの利用拡大に英国法がどの程度対応できるのかという疑問を提起しています。特に、ユーザーの安全性やサービスの効率性向上を謳って急いで市場に投入された自動化システムに関する透明性の欠如は、AIによる偏見の影響を受けた人々への救済措置が実現するまでに何年もかかる可能性がある一方で、個人への被害を急激に拡大させるリスクをはらんでいます。
この訴訟は、ウーバーが2020年4月に英国でリアルタイムIDチェックシステムを導入して以来、顔認識チェックの失敗に関する多数の苦情を受けて起こされた。マイクロソフトの顔認識技術をベースとするウーバーの顔認識システムでは、アカウント所有者が本人確認を行うために、ファイルに保存されている自分の写真と照合したライブセルフィーを提出する必要がある。
IDチェックに失敗
マンジャン氏の訴えによると、UberはID確認の失敗とその後の自動処理の後、マンジャン氏のアカウントを停止し、その後削除した。プラットフォームへのアクセス目的で撮影した顔写真に「継続的な不一致」が見つかったと主張した。マンジャン氏は2021年10月、平等人権委員会(EHRC)とアプリドライバー・宅配業者組合(ADCU)の支援を受けて、Uberを相手取って訴訟を起こした。
その後数年にわたる訴訟が続き、Uberはマンジャン氏の請求を却下することも、訴訟継続のための保証金の支払いを命じることもできなかった。この戦略は訴訟の長期化につながったとみられ、EHRCは2023年秋の時点でこの訴訟は依然として「予備段階」にあると述べ、「AI技術に関する訴訟の複雑さ」を示していると指摘した。最終審理は2024年11月に17日間の予定だった。
この審問は、ウーバーが和解金の支払いを提示し、マンジャン氏がそれを受け入れたため、開催されない。つまり、何が問題だったのか、そしてその理由についての詳細は公表されないことになる。金銭的和解の条件も明らかにされていない。ウーバーは我々の質問に対し詳細を明かさず、何が問題だったのかについてコメントもしなかった。
我々は訴訟の結果についての回答を求めてマイクロソフト社にも連絡を取ったが、同社はコメントを拒否した。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
マンジャン氏との和解にもかかわらず、Uberは自社のシステムやプロセスに欠陥があったことを公に認めていない。和解に関する声明では、AIによる評価のみを理由に配達員のアカウントを停止することは認められないと否定し、顔認識によるチェックは「人間による厳密な確認」によって裏付けられていると主張している。
「当社のリアルタイムIDチェックは、アプリを利用するすべてのユーザーの安全を守るために設計されており、監視なしに、誰かの生活に関する決定を独断で下すことのないよう、人間による厳格な審査も含まれています」と同社は声明で述べた。「マンジャン氏が配達員アカウントへの一時的なアクセスを失ったのは、自動顔認証が原因ではありません。」
しかし、マンジャン氏のケースでは、Uber の ID 確認で何か大きな間違いがあったことは明らかだ。

マンジャン氏の訴えを支持したプラットフォーム労働者のデジタル権利擁護団体Worker Info Exchange(WIE)は、英国のデータ保護法に基づく個人情報アクセス要求を通じてウーバーからマンジャン氏の自撮り写真をすべて入手し、顔認識チェックに提出した写真はすべてマンジャン氏自身の写真であることを証明できた。
「解雇後、パパはUberに何度もメッセージを送り、問題を修正するよう求めました。具体的には、提出した写真を人間に確認してもらうよう要請しました。そのたびに、『提出された写真が本当にあなたのものであることを確認できず、不一致が続いたため、あなたとの提携を終了するという最終決定を下しました』と言われました」と、WIEは「ギグエコノミーにおけるデータ駆動型搾取」を検証したより広範な報告書の中で、パパの事例を論じています。
公表されたマンジャン氏の苦情の詳細に基づくと、ウーバーの顔認識チェックと、自動決定の安全策として同社が主張する人間による審査システムの両方が今回のケースでは機能しなかったことは明らかだ。
平等法とデータ保護
この事件は、AIの使用を規制することに関して英国の法律がどの程度目的に適っているのか疑問を投げかけている。
マンジャン氏は、平等法に基づく法的手続き、具体的には人種を保護特性として挙げている英国の2006年平等法に基づく差別訴訟を通じて、最終的にウーバーから和解を得ることができた。
EHRCのキシュワー・フォークナー会長は声明の中で、ウーバーイーツの配達員が「自分の仕事に影響を与えた不透明なプロセスを理解するために」訴訟を起こさなければならなかったという事実を批判した。
「AIは複雑であり、雇用主、弁護士、規制当局にとって特有の課題を提起しています。AIの利用が拡大するにつれて、この技術が差別や人権侵害につながる可能性があることを理解することが重要です」と彼女は述べています。「私たちは特に、マンジャン氏が自身のアカウントが無効化の手続き中であることを知らされておらず、また、この技術に異議を申し立てるための明確かつ効果的な手段も提供されていなかったことを懸念しています。雇用主が従業員に対し、AIをいつ、どのように使用するかについて透明性とオープン性を確保するために、さらなる取り組みが必要です。」
英国のデータ保護法も、ここで関連するもう一つの法律です。書面上では、この法律は不透明なAIプロセスに対する強力な保護を提供するはずです。
マンジャン氏の主張に関連する自撮りデータは、英国GDPRに含まれるデータアクセス権を利用して取得された。もし彼がUberのID確認が失敗したという明確な証拠を入手できていなかったら、同社は和解に応じなかったかもしれない。個人が関連する個人データにアクセスできないようにしながら、独自のシステムに欠陥があることを証明すれば、はるかに豊富なリソースを持つプラットフォームにとって有利な状況がさらに生まれるだろう。
執行のギャップ
英国GDPRの権限は、データアクセス権に加え、法的または同等の重大な影響を及ぼす自動化された意思決定に対するものを含め、個人に追加の保護措置を提供することになっています。また、この法律は個人データの処理に法的根拠を要求し、システム導入者に対し、データ保護影響評価を実施することで潜在的な危害を積極的に評価することを推奨しています。これにより、有害なAIシステムに対する更なるチェックが求められるはずです。
しかし、これらの保護が効果を発揮するには、偏った AI の導入に対する抑止効果を含め、強制力が必要です。
英国のケースでは、2021年に遡るID確認の不備に関する苦情があったにもかかわらず、関係執行機関である情報コミッショナー事務局(ICO)は介入してUberに対する苦情を調査することを怠った。
法律事務所ミシュコン・デ・レイアの上級データ保護専門家ジョン・ベインズ氏は、ICOによる「適切な執行の欠如」が個人の法的保護を損なっていると示唆している。
「既存の法的・規制的枠組みが、AIシステムによる潜在的な危害の一部に対処できないと考えるべきではありません」と彼はTechCrunchに語った。「この例を見ると、情報コミッショナーは個別のケースだけでなく、より広い視点で、行われている処理が英国GDPRに違反していないかどうかを検討する権限を持っているのは明らかです。」
「例えば、処理は公正か?法的根拠はあるか?(特別なカテゴリーの個人データが処理されている場合)第9条の条件は満たされているか?そして、さらに重要なのは、認証アプリの導入前に、しっかりとしたデータ保護影響評価が実施されていたか?」
「だから、確かにICOはもっと積極的になるべきだ」と彼は付け加え、規制当局による介入の欠如に疑問を呈した。
マンジャン氏の件についてICOに連絡を取り、苦情を受けてUberのID確認におけるAIの利用について調査しているかどうか確認を求めました。ICOの広報担当者は私たちの質問に直接回答しませんでしたが、組織が「人々の権利を侵害しない方法で生体認証技術を使用する方法を知る」必要性を強調する一般的な声明を発表しました。
「当社の最新の生体認証ガイダンスでは、生体認証データの使用に伴うリスク、例えば人物の正確な識別エラーやシステム内の偏りなどを軽減する必要があることが明確に述べられています」と声明では述べられており、「データの取り扱いに懸念がある場合は、ICOに報告することができます」と付け加えている。
一方、政府は、ブレグジット後のデータ改革法案を通じてデータ保護法を緩和する手続きを進めている。
さらに、リシ・スナック首相がAIの安全性は政権の優先分野であるという注目を集める主張をしたにもかかわらず、政府は今年初め、現時点でAIの安全性に関する専門の法律を導入しないことも確認した。
代わりに、政府は2023年3月に発表したAIに関する白書で示された提案を承認した。この提案では、既存の法律と規制機関に依拠し、監督活動を拡大することで、自らの管轄区域で発生する可能性のあるAIリスクをカバーする意向が示されている。2月に発表されたアプローチに修正を加えた点の一つは、規制当局へのわずかな追加資金(1,000万ポンド)であり、政府はこれをAIリスクの調査やAIシステムの検査を支援するツールの開発に活用することを提案している。
この少額の追加資金の支出時期は示されていません。複数の規制当局が関与しており、英国国務長官が先月「AIへの戦略的アプローチ」の最新情報を公表するよう要請した13の規制当局および省庁のうち、ICO、EHRC、医薬品・医療製品規制庁(MHRA)などの機関に均等に資金が配分された場合、各機関は急速に拡大するAIリスクへの対策予算として、それぞれ100万ポンド未満を受け取る可能性があります。
率直に言って、AIの安全性が本当に政府の優先事項だとすれば、既に過重労働に苦しむ規制当局にとって、追加されるリソースは信じられないほど少ないと言えるでしょう。また、政府のアプローチを批判する人々が以前から指摘してきたように、英国の既存の規制の網の目から漏れ落ちてしまうAIによる危害に対しては、依然として資金も積極的な監視も全く行われていないことを意味します。
新たなAI安全法は、EUのリスクベースのAI危害フレームワークに類似した、より強い優先性を示すシグナルとなる可能性がある。このフレームワークは、EU域内でハードローとして急速に採用されつつある。しかし、それを実際に施行する意志も必要となる。そして、そのシグナルは上層部から発信されなければならない。
ウーバー、運転手の顔認証チェックで圧力にさらされる
英国はAIに関する固定的なルールを避け、「状況に応じたガイダンス」を支持