AIがブラックボックスである必要がない理由 | TechCrunch

AIがブラックボックスである必要がない理由 | TechCrunch

企業は日々、販売戦略から製造プロセスに至るまで、あらゆる重要な意思決定に人工知能を活用しています。しかし、AIモデルがどのようにしてそれらの意思決定を導く結果を生み出すのか、完全には解明されていないケースが多々あります。これは企業にとってリスクを生み出します。例えば、AIが生み出した結果が差別的であることが判明した場合(医療アルゴリズムにおけるバイアスなど)、何が問題だったのかを正確に把握することは企業にとって困難です。

どうやってここに来たのでしょうか?

一般的に、AIはデータ内のパターンを認識し、データ内の変数間の関係性を識別します。ディープラーニングやニューラルネットワークといったAIモデルは過去10年間で進化を遂げ、それらの動作の理由を理解することが飛躍的に困難になっています。しかしながら、ウェルズ・ファーゴはAIの説明可能性の向上をリードしています。 

「モデルを大きくすればするほど複雑になり、なぜその結論に至ったのかを説明するのが難しくなります」と、ウェルズ・ファーゴのCIO兼デジタルテクノロジー・イノベーション責任者であるチンタン・メータ氏は述べています。同氏は、同行のデジタルプラットフォームの進化を主導し、イノベーション・パイプラインと顧客対応機能の統合強化に取り組んでいます。「新たな複雑さが加わるたびに、私たちはそれに追いつく責任を負います。」 

幸いなことに、AIは理解不能なブラックボックスのままである必要はありません。説明可能なAIの イノベーションは、ウェルズ・ファーゴのような企業のAIモデルがなぜその結論に至ったのかを理解する能力を飛躍的に向上させ、AIモデルを現実世界の環境に責任を持って導入できるようにしています。 

検証の最高の価値

メータ氏によると、効果的なAI開発には、シンプルさと運用能力が不可欠です。だからこそウェルズ・ファーゴは、顧客対応環境に導入する前に、すべてのウェルズ・ファーゴAIモデルを検証する独立したデータサイエンティストチームを擁しているのです。

「プロセスと構造のレベルで、顧客が期待し、当然受けるに値する、ある程度の独立した検証を保証します」とメータ氏は言う。

検証自体は段階的に区切られているため、チームは各要素がAIモデル内でどのように使用されているかをより適切に把握できます。例えば、ある属性がモデル構築に使用される前に、アルゴリズムの潜在的な不公平性を考慮するためのバイアスブレイクプロセスが実行されます。データセットも同様のバイアスブレイクに加え、データの説明可能性と実行可能性を判断するテストが行​​われます。 

この厳格な検証プロセスにより、ウェルズ・ファーゴのチームは独自のバイアス破壊と説明可能性の技術を継続的に改良することができ、大学の研究者と連携して査読を経て出版に至っています。これは好循環です。AIモデルを実装前に検証することで、チームは新たな革新的な技術を発見し、将来のモデルの検証に活用できるのです。

「勾配ブースティング、ディープラーニング、従来の統計モデル、確率的勾配降下法など、あらゆるモデルを検討する必要があります」とメータ氏は述べ、機械学習に用いられる様々なモデルを挙げた。「手法に関わらず、基本的に同じ問題を解決しなければなりません。つまり、そのモデルがなぜそのような動作をしたのかを説明することです。」

説明可能なAIが仮想アシスタントの構築にどのように役立ったか

画像クレジット: Getty Images

2 つの実際の例から、Wells Fargo が革新的な説明可能性技術を使用して、AI モデルの責任ある導入をリードしていることがわかります。

今月初め、ウェルズ・ファーゴはGoogle Cloudを同社の新しいバーチャルアシスタント「Fargo」の基盤に採用すると発表しました。メータ氏とデータサイエンティストにとって、Fargoの開発は「いかにして安全かつ顧客に付加価値をもたらす形で市場に投入するか」という本質的な問いに集約されます。

「言語対応機能は数年前から登場しており、期待値は既にかなり高くなっています」とメータ氏は語る。「顧客体験の観点から言えば、モデルは初めて利用した際に、ユーザーが期待する通りのパフォーマンスを発揮するべきです。」

この基準を満たすため、ウェルズ・ファーゴは事後検証技術の改良に加え、バーチャルアシスタントに組み込まれているGoogle Cloudの最先端の大規模言語モデルに広範なテストを適用しています。つまり、Googleのモデルがなぜそのように言語を解釈するのかを理解したいと考えており、そのために既に構築されているモデルの動作を解析する技術を活用しているのです。複数のアルファテストとベータテストを通じて、顧客とファーゴの間で起こり得る複雑なやり取りをすべて検証し、エクスペリエンスが適切に機能するだけでなく、開発中に潜在的な問題を特定、理解、修正できるようにしました。

「アルファテストとベータテストには説明可能性のプロセスが組み込まれています」とメータ氏は語る。「レスポンスには、なぜそのように解釈されたのかを示すメタデータが含まれているので、何か気づいた点があれば、実際にエクスペリエンスを改善できます。」

その結果、説明可能性はファーゴの開発においてますます重要な役割を果たすようになりました。Google Cloud のモデルの事後解釈は、ウェルズ・ファーゴが顧客の期待に応えるバーチャルアシスタントを構築する上で役立ちました。

金融サービスにおいて説明可能性が重要な理由

画像クレジット: Getty Images

説明可能な AI 技術の向上により、ウェルズ・ファーゴは、特にクレジット分野において、従来の金融サービスにおけるイノベーションをリードしています。 

金融機関が予測モデルを使用して信用判断を行う場合、欠陥のあるモデルは、実際には信用力のある人に対して信用の拒否を推奨するなど、顧客に予期せぬ影響を与えるリスクを大幅に高める可能性があります。

ウェルズ・ファーゴのデータサイエンティストは、昨年4月に発表した論文で、信用判断を説明するために開発した新しい手法の概要を発表しました。簡単に言うと、この手法により、同社のAIモデルは、判断そのものに加えて、その判断の理由も提示できるようになります。

「このモデルは結果を提供するだけでなく、なぜその結論に至ったのかについても説明してくれます」とメータ氏は言う。「顧客中心の信用判断という文脈において、AIを実際にスケールさせることは非常に重要でした。」

最終的に、説明という追加のコンテキストは、人々がモデルの決定を再検討する機会をもたらします。説明が納得できない場合、人々は介入して決定を再検討することができます。これは、AIモデルが単なるブラックボックスであった場合には不可能なことです。

Wells Fargo は、これらの制約を AI 開発のライフサイクルに組み込むことで、AI の導入をより効果的にする技術の設計をリードしています。 

ウェルズ・ファーゴは今後数か月以内に、新たなバーチャルアシスタント「Fargo」をリリースする予定です。Fargoは、Google Cloudの先進的なAIを活用し、顧客一人ひとりに合わせたサービスとガイダンスを提供します。