企業がビジネス運営において機械学習モデルへの依存度を高めるにつれ、これらのモデルが誤った、あるいは誤解を招くような仮定を導き出さないよう、バイアス対策を講じることが不可欠となっています。本日、AWS re:Invent において、AWS は機械学習モデルのバイアスを低減する Amazon SageMaker Clarify を発表しました。
「Amazon SageMaker Clarifyをリリースします。これにより、機械学習のライフサイクル全体を通して、データとモデルに関する洞察を得ることができます」と、Amazonの副社長兼機械学習担当ゼネラルマネージャーであるブラティン・サハ氏はTechCrunchに語った。
彼によれば、これはデータ準備を始める前にデータの偏りを分析するように設計されているため、モデルの構築を始める前にこうした種類の問題を見つけることができるとのことです。
「トレーニングデータセットが用意できたら、さまざまなクラスの数が同数かどうか、男性と女性の数が同数かどうか、あるいは他の種類のクラスが同数かどうかなどを確認できます。統計分析に使用できるいくつかの指標が用意されているので、データセットのバランスをより簡単に把握できます」とサハ氏は説明した。
AWSが機械学習向けの新しいデータ準備サービス「SageMaker Data Wrangler」を発表
モデルを構築した後、SageMaker Clarify を再度実行して、モデル構築時にモデルに潜り込んだ可能性のある類似の要因を探すことができます。「まずデータの統計的バイアス分析を行い、トレーニング後にモデルの分析を再度行うことができます」と彼は述べています。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
モデルを構築するデータサイエンティストの経歴、データの性質、そしてデータサイエンティストが構築したモデルを通してデータをどのように解釈するかによって、モデルに入り込む可能性のあるバイアスの種類は複数あります。これは一般的に問題となる可能性がありますが、人種的ステレオタイプがアルゴリズムにまで及ぶことにもつながります。例えば、顔認識システムは白人の顔の識別においては非常に正確であることが証明されていますが、有色人種の顔の認識に関してははるかに低い精度です。
このようなバイアスは、チーム構成やソフトウェア分析ツールの範囲外のその他の要因に関係することが多いため、ソフトウェアで特定するのは難しいかもしれませんが、Saha 氏は、ソフトウェアによるアプローチを可能な限り包括的なものにしようとしていると述べています。
人種差別と闘うにはAIの新しい分野が必要だ
「SageMaker Clarify を見てみると、データのバイアス分析、モデルのバイアス分析、モデルの説明可能性、推論ごとの説明可能性、そして全体的な説明可能性が得られます」と Saha 氏は言います。
サハ氏は、Amazon はバイアスの問題を認識しており、そのためにこのツールを作成したが、このツールだけでは機械学習モデルで発生する可能性のあるバイアスの問題をすべて排除することはできないことを認識しており、他の支援方法も提供していると述べた。
「私たちはお客様と様々な方法で協力しています。そのため、ドキュメントやベストプラクティスを用意し、お客様が望む結果が得られるよう、システムを構築し、システムを操作する方法をご案内しています」と彼は述べた。
SageMaker Clarify は、複数のリージョンで本日よりご利用いただけます。
ロン・ミラーは、TechCrunch の企業記者でした。
以前はEContent Magazineの寄稿編集者として長年活躍していました。CITEworld、DaniWeb、TechTarget、Internet Evolution、FierceContentManagementなどで定期的に記事を執筆していました。
開示事項:
ロンは以前、Intronisの企業ブロガーとしてIT関連の記事を毎週1回執筆していました。Ness、Novell、IBM Mid-market Blogger Programなど、様々な企業ブログに寄稿しています。
バイオを見る