NISTがAIモデルのリスクをテストするためのツールをリリース

NISTがAIモデルのリスクをテストするためのツールをリリース

米国政府、企業、そして広く国民向けの技術の開発とテストを行う米国商務省の機関、国立標準技術研究所(NIST)は、悪意のある攻撃、特にAIモデルのトレーニングデータを「汚染」する攻撃がAIシステムのパフォーマンスをどの程度低下させるかを測定するために設計されたテストベッドを再リリースしました。

2022年に初めてリリースされた「Dioptra」(古代の天文・測量機器にちなんで名付けられた)と呼ばれるこのモジュール式のオープンソース・ウェブベースツールは、AIモデルのトレーニングを行う企業と、それらのモデルを使用する人々がAIリスクを評価、分析、追跡するのを支援することを目的としています。NISTによると、Dioptraはモデルのベンチマークや調査に使用できるだけでなく、「レッドチーム演習」環境でモデルを模擬脅威にさらすための共通プラットフォームも提供します。

「機械学習モデルに対する敵対的攻撃の影響をテストすることは、Dioptraの目標の一つです」とNISTはプレスリリースで述べています。「無料でダウンロードできるこのオープンソースソフトウェアは、政府機関や中小企業を含むコミュニティが、AI開発者が主張するシステムのパフォーマンスを評価するのに役立つ可能性があります。」

NIST ディオプトラ
Dioptraのインターフェースのスクリーンショット。画像提供: NIST

Dioptraは、NISTとNISTが最近設立したAI Safety Instituteによる文書とともに発表されました。これらの文書では、AIが悪用されて合意のないポルノ画像が生成される可能性など、AIの危険性を軽減する方法が示されています。これは、英国AI Safety InstituteによるInspectのリリースに続くものです。Inspectは、モデルの能力と全体的な安全性を評価することを目的としたツールセットです。米国と英国は、昨年11月にブレッチリー・パークで開催された英国AI Safety Summitで発表されたように、高度なAIモデルテストを共同開発するためのパートナーシップを継続しています。 

Dioptraは、ジョー・バイデン大統領のAIに関する大統領令(EO)の成果物でもあります。この大統領令は、NISTにAIシステムのテスト支援を義務付けています。また、このEOはAIの安全性とセキュリティに関する基準も定めており、モデルを開発する企業(例えばApple)に対し、モデルを一般公開する前に連邦政府に通知し、すべての安全性テストの結果を共有することを義務付けています。

以前にも記事を書いたように、AIベンチマークは困難です。今日の最も洗練されたAIモデルはブラックボックスであり、そのインフラストラクチャ、トレーニングデータ、その他の重要な詳細は開発企業によって秘密にされているため、特に困難です。英国を拠点とする非営利AI研究機関、エイダ・ラブレス研究所が今月発表した報告書によると、評価だけではAIモデルの現実世界での安全性を判断するのに十分ではないことが明らかになりました。これは、現在のポリシーではAIベンダーが実施する評価を恣意的に選択できるためです。

NISTは、Dioptraがモデルのリスクを完全に軽減できるとは主張していません。しかし、Dioptraは、どのような種類の攻撃がAIシステムのパフォーマンスを低下させる可能性があるかを明らかにし、そのパフォーマンスへの影響を定量化できると提言しています

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

しかし、大きな制限として、DioptraはMetaの拡張版Llamaファミリーのように、ダウンロードしてローカルで使用できるモデルでしか動作しません。OpenAIのGPT-4oのようにAPIで制限されているモデルは、少なくとも当面は動作しません。

カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。

バイオを見る