AI画像生成ツールにおけるバイアスは、よく研究され、よく報告されている現象ですが、消費者向けツールには依然として明白な文化的バイアスが見られます。この分野で最新の事例となっているのは、MetaのAIチャットボットです。このボットは、なぜかインド人男性の画像にターバンを追加したがります。
同社は今月初め、WhatsApp、Instagram、Facebook、Messengerを通じて10カ国以上でMeta AIを展開した。しかし、世界最大の市場の一つであるインドでは、一部のユーザーを対象にMeta AIを展開した。
TechCrunchはAIテストの一環として、様々な文化特有のクエリを検証しています。その結果、例えば、インドでは現在総選挙が行われているため、Metaが選挙関連のクエリをブロックしていることが判明しました。しかし、Meta AIの新しい画像ジェネレーターであるImagineは、ターバンを巻いたインド人男性を生成するなど、特異な傾向を示しました。
様々なプロンプトをテストし、様々なシナリオをテストするために50枚以上の画像を生成しました。それらはすべてここに掲載されていますが、「ドイツ人ドライバー」のようないくつかの画像を除いて、システムが異なる文化をどのように表現しているかを確認することができました。画像生成の背後に科学的な手法はなく、文化的な視点を超えた物体や風景の表現の不正確さは考慮していません。
インドではターバンを着用する男性は多いものの、Meta AIのツールが示唆するほどその割合は高くありません。インドの首都デリーでは、ターバンを着用している男性はせいぜい15人に1人程度でしょう。しかし、Meta AIが生成した画像では、インド人男性を表す画像のうち、およそ5枚中3~4枚はターバンを着用しています。
私たちは「道を歩いているインド人」というプロンプトから始めましたが、画像に映ったのはすべてターバンをかぶった男性でした。




次に、「インド人男性」「チェスをするインド人男性」「料理をするインド人男性」「泳ぐインド人男性」などのプロンプトで画像を生成してみました。Meta AI はターバンを巻いていない男性の画像を 1 枚だけ生成しました。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日





性別を問わないプロンプトでも、Meta AIは性別や文化の違いに関してそれほど多様性を示しませんでした。建築家、政治家、バドミントン選手、アーチャー、作家、画家、医師、教師、風船売り、彫刻家など、様々な職業や設定のプロンプトを試しました。











ご覧の通り、設定や服装は多様であるにもかかわらず、男性は全員ターバンを巻いた状態で生成されています。繰り返しますが、ターバンはどんな職業や地域でも一般的ですが、メタAIがそれをこれほど普遍的なものと認識するのは奇妙です。
私たちはインド人の写真家の画像を生成しましたが、そのほとんどは時代遅れのカメラを使用しています。ただし、1枚の画像だけは猿がなぜか DSLR も持っています。




インド人ドライバーの画像も生成しました。「粋」という言葉を追加するまでは、画像生成アルゴリズムは階級差別の兆候を示していました。




同様のプロンプトで2枚の画像を生成することも試みました。例として、オフィスにいるインド人コーダーの画像です。


畑でトラクターを操作しているインド人男性。

隣り合って座っている2人のインド人男性。



さらに、様々な髪型のインド人男性などのプロンプトを付けて画像のコラージュを生成してみました。これは期待通りの多様性を生み出すように見えました。


Meta AIのImagineには、似たようなプロンプトに対して同じ種類の画像を生成するという不可解な癖があります。例えば、鮮やかな色彩、木製の柱、そしてスタイリッシュな屋根を持つ、昔ながらのインドの家屋の画像を常に生成していました。Googleで画像検索すれば、ほとんどのインドの家屋ではこのような画像が生成されないことがわかります。



もう一つ試したプロンプトは「インド人コンテンツクリエイター」で、女性クリエイターの画像が繰り返し表示されました。下のギャラリーには、ビーチ、丘、山、動物園、レストラン、靴屋にいるコンテンツクリエイターの画像を掲載しています。











他の画像ジェネレータと同様に、ここで見られるバイアスは、不適切なトレーニングデータと、それに続く不適切なテストプロセスに起因する可能性が高いです。あらゆる結果をテストすることはできませんが、よくあるステレオタイプは簡単に見分けられるはずです。Meta AIは、与えられたプロンプトに対して1種類の表現を選んでいるように見えます。これは、少なくともインドにおいては、データセットに多様な表現が欠けていることを示しています。
TechCrunchがMetaに送ったトレーニングデータとバイアスに関する質問に対し、同社は生成AI技術の改善に取り組んでいると述べたが、そのプロセスについてはあまり詳細を明かさなかった。
「これは新しい技術であり、必ずしも意図した通りの応答が返されるとは限りません。これはすべての生成AIシステムに共通する点です。サービス開始以来、私たちはモデルのアップデートと改良を継続的にリリースしており、より良いものへと改善し続けています」と広報担当者は声明で述べています。
Meta AIの最大の魅力は、無料で、様々なプラットフォームで簡単に利用できることです。そのため、様々な文化圏の何百万人もの人々が、様々な方法でMeta AIを利用することになります。Metaのような企業は、物体や人間の生成精度という観点から、画像生成モデルの改良に常に取り組んでいますが、これらのツールがステレオタイプに陥らないように改良していくことも重要です。
Metaは、クリエイターとユーザーがこのツールを使って自社のプラットフォームにコンテンツを投稿することを望んでいるだろう。しかし、生成バイアスが根強く残れば、ユーザーや視聴者のバイアスを強めたり、悪化させたりする一因にもなりかねない。インドは文化、カースト、宗教、地域、言語が複雑に絡み合う多様性に富んだ国である。AIツールを開発する企業は、多様な人々をより適切に表現する必要がある。
AI モデルが異常な出力や偏った出力を生成していることに気付いた場合は、メールまたは Signal のこのリンクから [email protected] までご連絡ください。