マイクロソフトとパートナーは、AIへのアクセスを制限する「データ砂漠」の縮小を目指している。

マイクロソフトとパートナーは、AIへのアクセスを制限する「データ砂漠」の縮小を目指している。

コンピュータービジョンや音声インターフェースといったAIベースのツールは、障がいのある人々の生活を変える可能性を秘めています。しかし、これらのAIモデルは、通常、障がいのある人々から得たデータをほとんど使用せずに構築されているのが実情です。マイクロソフトは、複数の非営利団体と協力し、これらのツールが、失明や運動機能障害などの障がいを持つ人々のニーズと日常生活の実態を反映したものになるよう取り組んでいます。

例えば、物体を認識し、例えばテーブルの上にあるものを説明できるコンピュータービジョンシステムを考えてみます。そのアルゴリズムは、健常者の視点、おそらくは立ち位置から収集したデータを使って学習された可能性が高いでしょう。

車椅子に乗って同じことをしようとすると、低い角度ではシステムの効果がほとんど感じられないかもしれません。同様に、視覚障碍者は、アルゴリズムが動作するのに十分な時間、カメラを正しい位置に保持する方法がわからないため、試行錯誤を繰り返すしかありません。

あるいは、何らかの指標のために画面に注目しているかどうかを判別する顔認識アルゴリズムを考えてみましょう。そのシステムの学習に使用された顔のうち、人工呼吸器やパフ&ブローコントローラー、あるいはヘッドストラップで顔の一部が隠れているものが、かなりの数存在する可能性はどれくらいでしょうか?これらの「交絡因子」は、システムがこれまで見たことのないようなものであれば、精度に著しく影響する可能性があります。

Appleのグローバルアクセシビリティ責任者がiOS 13とmacOS Catalinaの新機能について語る

肌の色が濃い人や女性には精度が低い顔認識ソフトウェアは、こうした「ゴミを入れればゴミが出る」という典型的な例です。あまり議論されませんが、同様に重要なのは、障がいのある人や彼らの視点の視覚的表現です。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

マイクロソフトは本日、AIの包括性を制限するこの「データ砂漠」に対処したいと願う支援団体が共同で主導するいくつかの取り組みを発表した。

1 つ目は、神経運動変性疾患である筋萎縮性側索硬化症 (ALS) (数年前にこの疾患と診断された元 NFL スター、スティーブ・グリーソンにちなんで名付けられた) に対する認識を高めるために結成された組織、Team Gleason とのコラボレーションです。

彼らの懸念は、前述の顔認識に関するものです。ALS患者の症状や支援技術は多岐にわたり、それらがこれまで経験したことのないアルゴリズムに干渉する可能性があります。例えば、Microsoftが間違いなくそうしたいと思っているように、企業が顔認識を利用した視線追跡ソフトウェアをリリースしたい場合、これは問題となります。

「コンピュータービジョンと機械学習は、ALSなどの疾患を持つ人々のユースケースや外見を反映するものではありません」と、チーム・グリーソンのブレア・ケイシーは述べています。「人それぞれ状況が異なり、テクノロジーの使い方も異なります。人々は効率的かつ快適に過ごすために、最も創造的な方法を見つけます。」

ADAが30周年を迎え、テクノロジーは障害者支援の始まりに過ぎない

Project Insightは、マイクロソフトとの新たな共同プロジェクトです。ALS(筋萎縮性側索硬化症)のボランティア利用者の顔画像を収集し、業務に役立てます。収集された顔データは、将来的にはマイクロソフトの既存の認知サービスに統合される予定ですが、同時に無料で公開され、他のユーザーが独自のアルゴリズムを改良する際に活用できるようになります。

彼らは2021年後半のリリースを目指している。時間枠が少し長いように思われるかもしれないが、マイクロソフトのAI for Accessibility部門のメアリー・ベラード氏は、基本的にゼロからのスタートであり、正しく行うことが重要だと指摘した。

「研究は洞察につながり、洞察はエンジニアが製品に組み込むモデルにつながります。しかし、そもそも製品に組み込むには、十分な精度のデータが必要です」と彼女は述べた。「データは共有されます。これは特定の製品を改善することではなく、こうした複雑な可能性に関する研究を加速させることが目的です。そして、私たちはそれを単独で行うつもりはありません。」

もう一つの改善点は、アプリの使い方が一般ユーザーと異なるユーザーから画像を入手することです。前述の視覚障害者や車椅子利用者のように、彼らの視点からのデータが不足しています。この課題に対処するために、2つの取り組みが行われています。

画像内の物体を識別または特定する必要がある人が撮影した画像。
画像クレジット: ORBIT

ロンドン市立大学との共同研究の一つは、「視覚障害者のための物体認識画像学習プロジェクト」の拡大と、最終的には一般公開です。このプロジェクトでは、スマートフォンのカメラを使って、缶ジュースやキーホルダーといった日常的な物体を識別するためのデータセットを構築しています。しかし、他のデータセットとは異なり、このデータセットはすべて視覚障害者のユーザーから収集されるため、アルゴリズムは最初から、いずれにせよ後で提供される種類のデータで動作するように学習します。

AIキャプション付き画像
画像クレジット: Microsoft

もう1つは、VizWizを拡張し、この種のデータをより適切に取り込むことです。このツールは、例えばヨーグルトのカップの賞味期限が切れていないか、家の前に車が停まっているかなど、すぐに助けが必要な人に利用されています。マイクロソフトは、このアプリの開発者であるダナ・グラリ氏と協力し、関連する質問とキャプションが付与された数万枚の画像からなる既存のデータベースを改良しました。また、画像が暗すぎたりぼやけていて分析や送信が難しい場合に、ユーザーに警告を表示する機能も開発中です。

インクルーシビティは複雑な問題です。なぜなら、それは人々やシステムに関わるものであり、おそらくは無意識のうちに「普通」を定義し、その規範から外れて機能しないからです。AIがインクルーシブになるためには、「普通」を再定義する必要があり、それには多大な努力が必要です。最近まで、人々はこのことについて話すことさえありませんでした。しかし、状況は変わりつつあります。

「これはALSコミュニティが何年も前から望んでいたものです」とケイシー氏は語った。「これは既に存在する技術です。ただ、棚に眠っているだけです。活用しましょう。私たちがこれについて話し合うことで、人々はより多くのことを行うようになります。そして、それはコミュニティ全体が必要としているものです。」

Sight Tech Globalアジェンダの幕開けです