英国で最近設立されたAI安全機関である英国AI安全研究所は、産業界、研究機関、学界がAI評価を開発しやすくすることで「AIの安全性を強化」するように設計されたツールセットをリリースしました。
「Inspect」と呼ばれるこのツールセットは、オープンソース ライセンス、具体的には MIT ライセンスの下で利用可能であり、モデルのコア知識や推論能力など AI モデルの特定の機能を評価し、その結果に基づいてスコアを生成することを目的としています。
AI安全研究所は金曜日にこのニュースを発表するプレスリリースで、Inspectは「政府支援機関が主導するAI安全性テストプラットフォームがより広範な利用のためにリリースされた初めての事例」であると主張した。

「AI安全性テストにおけるコラボレーションの成功は、評価に対する共通のアクセス可能なアプローチを持つことを意味し、Inspectがその基盤となることを願っています」と、AI Safety Instituteのイアン・ホガース会長は声明で述べています。「世界中のAIコミュニティがInspectを活用して、独自のモデル安全性テストを実施するだけでなく、オープンソースプラットフォームを適応・発展させ、全体的に高品質な評価を行えるようになることを期待しています。」
以前にも記事を書いたように、AIベンチマークは難しいものです。今日の最も洗練されたAIモデルはブラックボックスであり、そのインフラストラクチャ、トレーニングデータ、その他の重要な詳細は開発企業によって秘密にされているため、なおさらです。では、Inspectはどのようにこの課題に取り組んでいるのでしょうか?主に、新しいテスト手法への拡張性と拡張性を備えていることです。
Inspectは、データセット、ソルバー、スコアラーという3つの基本コンポーネントで構成されています。データセットは評価テストのサンプルを提供します。ソルバーはテストの実行を担当します。スコアラーはソルバーの作業を評価し、テストのスコアを集計して指標を作成します。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
Inspect の組み込みコンポーネントは、Python で記述されたサードパーティ パッケージを介して拡張できます。
Mozilla の研究員であり、著名な AI 倫理学者でもある Deborah Raj 氏は、X の記事で Inspect を「AI の説明責任を果たすためのオープンソース ツールへの公的投資の力を証明するもの」と呼びました。
AIスタートアップ企業Hugging FaceのCEO、Clément Delangue氏は、InspectをHugging Faceのモデルライブラリと統合したり、ツールセットの評価結果を公開するリーダーボードを作成したりするアイデアを提案した。
Inspectの発表は、米国の政府機関である米国国立標準技術研究所(NIST)が、テキストや画像を生成するAIを含む様々な生成AI技術を評価するプログラム「NIST GenAI」を開始したことを受けて行われた。NIST GenAIは、ベンチマークを公開し、コンテンツの真正性を検出するシステムの構築を支援し、AIによって生成された偽情報や誤解を招く情報を見分けるソフトウェアの開発を促進する予定である。
米国と英国は4月、昨年11月にブレッチリー・パークで開催された英国AI安全サミットで発表されたコミットメントを受け、高度なAIモデル試験を共同開発するためのパートナーシップを発表しました。この協力の一環として、米国は独自のAI安全研究所を設立する予定です。この研究所は、AIおよび生成AIのリスクを幅広く評価することになります。
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る