Googleは新しいAIモデルが感情を識別できると発表しているが、専門家は懸念している。

Googleは新しいAIモデルが感情を識別できると発表しているが、専門家は懸念している。

Google によれば、同社の新しい AI モデル ファミリーには、感情を「識別」する興味深い機能があるという。

木曜日に発表されたPaliGemma 2ファミリーのモデルは画像を分析し、AIがキャプションを生成したり、写真に「写っている」人物に関する質問に答えたりすることができる。

「PaliGemma 2は、画像に対して詳細かつ文脈に即したキャプションを生成します」とGoogleはTechCrunchに共有されたブログ記事に記している。「単純な物体識別にとどまらず、動作、感情、シーン全体の物語まで描写します。」

Google パリジェマ 2
Googleによると、PaliGemma 2は同社のGemmaオープンモデルセット、特にGemma 2シリーズをベースにしているという。画像クレジット: Google

感情認識はそのままでは機能せず、PaliGemma 2は目的に合わせて微調整する必要があります。しかし、TechCrunchが話を聞いた専門家たちは、感情検出装置がオープンに利用可能になる可能性に懸念を示していました。

「これは私にとって非常に厄介なことです」と、オックスフォード・インターネット研究所でデータ倫理とAIを専門とするサンドラ・ワクター教授はTechCrunchに語った。「人の感情を『読める』と仮定するのは問題があると思います。まるでマジック8ボールにアドバイスを求めるようなものです。」

スタートアップ企業も巨大テック企業も長年にわたり、営業研修から事故防止まで、あらゆる場面で感情を検知できるAIの開発に取り組んできました。中には実現したと主張する企業もありますが、科学的根拠は実証的に不安定です。

感情検出器の大部分は、人間には怒り、驚き、嫌悪、喜び、恐怖、悲しみという6つの基本感情が共通していると理論づけた心理学者ポール・エクマンの初期の研究にヒントを得ています。しかし、その後の研究はエクマンの仮説に疑問を投げかけ、異なる背景を持つ人々が感情を表現する方法には大きな違いがあることを示しました。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

「感情の検出は一般的には不可能です。なぜなら、人々は複雑な方法で感情を経験するからです」と、キングス・カレッジ・ロンドンでAIを専門とする研究員、マイク・クック氏はTechCrunchに語った。「もちろん、私たちは他人が何を感じているのかを見た目で判断できると考えていますし、スパイ機関やマーケティング会社など、長年にわたり多くの人が試みてきました。場合によっては、一般的な感情の兆候を検出することは絶対に可能だと確信していますが、完全に『解決』できるものではありません。」

当然の結果ですが、感情検出システムは信頼性が低く、設計者の想定によって偏りが生じやすい傾向があります。2020年のMITの研究では、顔分析モデルが笑顔などの特定の表情に対して意図しない好みを持つ可能性があることが示されました。さらに最近の研究では、感情分析モデルは白人よりも黒人の顔に否定的な感情を多く割り当てていることが示唆されています。

Googleは、PaliGemma 2における人口統計学的バイアスを評価するために「広範なテスト」を実施し、業界のベンチマークと比較して「有害性や冒とく表現のレベルが低い」ことを発見したと述べている。しかし、同社は使用したベンチマークの全リストを公開しておらず、どのような種類のテストを実施したのかも明らかにしていない。

Googleが公開している唯一のベンチマークは、数万人分の顔写真からなるFairFaceです。同社は、PaliGemma 2がFairFaceで高いスコアを獲得したと主張しています。しかし、一部の研究者は、FairFaceは少数の人種グループしか代表していないことを指摘し、このベンチマークは偏りのある指標だと批判しています。

「感情の解釈は、視覚的な補助手段の利用にとどまらず、個人的および文化的な文脈に深く根ざした、極めて主観的な問題です」と、人工知能の社会的影響を研究する非営利団体AI Now Instituteの主任AI科学者、ハイディ・クラーフ氏は述べています。「AIはさておき、研究では、顔の特徴だけで感情を推測することはできないことが示されています。」

感情検知システムは海外の規制当局の怒りを買っており、彼らは高リスクな状況でのこの技術の使用を制限しようとしています。EUにおけるAI関連法の主要な条項であるAI法は、学校や雇用主による感情検知システムの導入を禁止しています(ただし、法執行機関は対象外です)。

AI開発プラットフォームのHugging Faceなど、多数のホストから入手できるPaliGemma 2などのオープンモデルに関する最大の懸念は、悪用または誤用され、現実世界で危害をもたらす可能性があることだ。

「このいわゆる感情的識別が疑似科学的な推定に基づいている場合、この能力が、法執行、人材、国境管理などの分野で、疎外されたグループに対するさらなる、そして不当な差別にどのように利用されるかについて、重大な影響がある」とクラーフ氏は述べた。

PaliGemma 2の公開に伴う危険性について尋ねられたGoogleの広報担当者は、視覚的な質問応答と字幕表示に関連する「表現上の危害」に関するテストを自社で実施していることを高く評価していると述べた。「PaliGemma 2モデルについては、子供の安全やコンテンツの安全性を含む倫理と安全性について、厳密な評価を実施しました」と付け加えた。

ワクター氏はそれが十分だとは思っていない。

「責任あるイノベーションとは、研究室に入った初日から、そして製品のライフサイクル全体を通して、その影響について考え続けることを意味します」と彼女は述べた。「このようなモデルには、感情が仕事やローンの獲得、そして大学への入学を左右するようなディストピア的な未来につながる可能性のある、無数の潜在的な問題が考えられます。」