Fairly AIは、企業がAIリスクをよりよく理解できるよう支援したいと考えています。

Fairly AIは、企業がAIリスクをよりよく理解できるよう支援したいと考えています。

デイビッド・ヴァン・ブルワエネ氏は、コーネル大学で哲学の博士号取得を目指していた頃、言語学と自然言語処理(NLP)に情熱を燃やした。NLPはAIの一分野であり、機械が人間の言語を理解できるようにすることを研究している。学界を離れ、ソーシャルメディアにおけるネットいじめの検出にNLPを応用するAIスタートアップ企業VISRに入社した後、ヴァン・ブルワエネ氏はAI開発プロセス全体を通してAI開発者とビジネス意思決定者が同じ認識を持つようにすることの難しさを身をもって体験したと語る。

「AI規制に関する議論はかつてないほど加速しており、AIの安全性はほぼすべての人にとって懸念事項です」と、ヴァン・ブルワエネ氏はTechCrunchのメールインタビューで語った。「問題は、AIプロジェクトが明確な実稼働への道筋がないまま永遠に続く可能性があることです。なぜなら、AIが実稼働に『十分』安全でコンプライアンスに準拠していると確信できる人が誰もいないからです。」

Van Bruwaene 氏は、Sapient、Intuit、ATG などの企業でエンタープライズ システム ソリューション アーキテクトを務めていた Fion Lee-Madan 氏と出会った後、AI システムに関するリスクの管理を組織に支援するプラットフォーム「Fairly AI」の共同開発に協力するよう彼女を説得しました。

パンデミック中にアクセンチュアのフィンテックイノベーションラボで育成されたフェアリーAIは、その後本格的な企業に成長し、今年初めにトロントのテックスターズアクセラレーターに受け入れられた。

「Fairlyは、データサイエンティストやポリシー専門家が社内およびサードパーティのAIシステムにポリシーとコントロールを適用することで、AI導入を加速させながらリスクを最小限に抑えることを可能にします」と、FairlyのCEOを務めるヴァン・ブルワエン氏は述べた。「Fairlyの使命は、安全で安心、そしてコンプライアンスに準拠したAI導入を実現することです。」

サンフランシスコで開催されるTechCrunch主催の年次カンファレンス「Disrupt」で開催される今年の「Startup Battlefield 200」に出場するFairlyは、Partnership on AIや非営利団体Responsible AI Instituteなどのパートナー企業によるAIポリシーとコントロールのための「マーケットプレイス」の構築を目指しています。Van Bruwaene氏の説明によると、Fairlyは金融サービス業界を中心とした他業界のフレームワークやガバナンス、リスク、コンプライアンスプロセスをAI向けに適応・拡張しています。

Fairlyのプラットフォームは、オンプレミスまたはプライベートクラウドに導入され、企業のAIモデルとデータセットを社内外のポリシー、関連する標準や規制に照らしてベンチマークします。このプラットフォームは、手動または継続的に実行でき、1行のコードで既存のCI/CDパイプラインに統合できます。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

Van Bruwaene 氏は、その目標は、AI システムに関連する可能性のあるリスクとコンプライアンスの問題を一般の人々が理解しやすくし、新たなリスクが発生したときにそれを軽減することだと述べています。

彼は、ガバナンスの欠如によってアルゴリズムが機能不全に陥った例として、Zillow Offersを挙げています。2022年、ZillowはZillow Offersを閉鎖せざるを得ませんでした。同サービスは、住宅所有者に最短2日で物件の現金化を提供するものでした。サービスの背後にあるアルゴリズムが原因で、高騰する資材費や人件費を考慮せずに、Zillowが数千もの住宅を購入してしまったのです。

かなりAI
AIモデルとデータセットのステータスを追跡するFairly AIのモニタリングダッシュボード。画像クレジット: Fairly AI

ChatGPTのような生成型AIの登場は、リスク管理をさらに複雑化させています。マッキンゼーが今年実施した調査によると、職場でAIを使用している人のうち、雇用主が従業員のAI利用方法に関するポリシーを整備していると回答したのはわずか21%でした。また、AIから得られる不正確な情報のリスクを軽減するための取り組みを会社が行っていると回答したのはわずか32%で、関連するサイバーセキュリティの脅威に対処するための対策を組織が講じていると回答したのは38%でした。

「Fairlyのターゲットユーザーからは、既存の機械学習監視・可観測性ツールによくあるグラフやチャートは理解できないので見たくないという声が寄せられました」とVan Bruwaene氏は述べた。「当社のテクノロジーは、コンプライアンス要件をエンジニアリング要件に変換し、意思決定者にとっての『信号』となるような情報を提供することを可能にしています。」

Fairlyの立ち上げは、AI業界にとって転換期を迎えた時期です。特に海外の政策立案者は、AIの導入によって生じる可能性のある損害を防ぐため、AI規制を標準化する方法を検討しています。

EUは、AIシステムに関する統一的な規制と法的枠組みの導入を目指すAI法の制定に着実に近づいています。昨年、ホワイトハウスはAI技術の設計と利用を導くための原則案のリストである「AI権利章典」の青写真を発表しました。また、中国はAIアートツールなどの生成AIをパブリックウェブ上に展開する方法に制限を設けています。

スタンフォード大学の2023年AIインデックスによると、2022年には世界中でAI関連の法案が37​​件可決された。AIを導入している企業にとって、常に把握しておくべきことは山ほどあると、ヴァン・ブルウェイン氏は正しく指摘している。

「企業はFairlyのようなツールを活用して、事前にポリシーと管理体制を構築し、AI開発者がゴールを明確に理解できるようにする必要があります。最終的にはビジネス上の判断です」と彼は述べた。「定性的および定量的な管理体制の両方を用いて真の説明可能性を提供することで、Fairlyはコンプライアンスプロセスの加速に貢献します。」

Fairlyはまだ収益化されていないが、ヴァン・ブルワエン氏は、同社はすでに4カ国の共同設計パートナーと「収益を生み出す」パイロットを完了していると主張している。「ベータプログラムを12社の顧客に拡大し、いくつかの政府機関と協議を進めており、少なくとも1つの機関とはすでにパイロットを開始しています」と付け加えた。

AIリスクとコンプライアンス管理分野のプレーヤー数が増加しているにもかかわらず、この成長は続いています。例えば、Credo AIは、企業がAIガバナンスを可視化するためのフレームワークを提供しています。Holistic AIは、Fairlyと同様に、機械学習モデルの公平性とコンプライアンスを評価します。また、Monitaurは保険業界向けのAIガバナンスソリューションを開発しています。

アライド・マーケット・リサーチは、AIによる信頼、リスク、セキュリティ管理製品の市場規模が2022年の17億ドルから2032年までに74億ドルに達すると予測している。しかし、ヴァン・ブルワエネ氏は競争については懸念していない、少なくとも懸念していないという印象を与えている。

「パンデミック中に事業を開始したため、初日からリモートチームとして体制を構築してきました」と彼は語った。「カナダでは科学研究と実験開発のクレジット制度があるため、当社の研究開発費のバーンレートは米国の競合他社に比べて40%近く低くなっています。」

Fairlyは顧客獲得活動を支援するため、Flying Fish Partnersがリードし、Loyal VC、Backstage Capital、XFactor Ventures、NEXT Canada、Techstars Torontoが参加した170万ドルのプレシードラウンドを最近完了しました。新たに調達した資金の大半は、製品開発、市場開拓チームの構築、そして今後1年以内に社員と契約社員を12名から24名に増員する費用に充てられる予定です」とVan Bruwaene氏は述べています。

「当社のプラットフォームは、組織が運用リスク、モデルリスク、コンプライアンスリスクを理解し、情報に基づいた「継続/中止」の決定を下し、AIモデルに何百万ドルも費やして、永続的なリスクとコンプライアンスのレビューサイクルに陥ることを回避できるように支援することを目指しています」と彼は付け加えた。