
監視団体「ミダス・プロジェクト」が指摘したように、イーロン・マスク氏のAI企業xAIは、最終的なAI安全フレームワークを公開するという自らに課した期限を守れなかった。
xAIは、一般的に理解されているほどAIの安全性に力を入れていることで知られているわけではありません。最近の報告によると、同社のAIチャットボット「Grok」は、女性の写真で服を脱ぐように指示されると、その写真を見せてしまうことが分かりました。また、GrokはGeminiやChatGPTなどのチャットボットよりもかなり下品で、遠慮なく罵倒することもあります。
それでも、2月にAIリーダーと関係者が世界規模で集まるAIソウルサミットにおいて、xAIはAIの安全性に対する同社のアプローチを概説したフレームワークの草案を公開しました。8ページにわたるこの文書には、xAIの安全性に関する優先事項と理念が示されており、ベンチマークプロトコルやAIモデルの展開に関する考慮事項も含まれています。
しかし、ミダス・プロジェクトが火曜日のブログ投稿で指摘したように、この草案は「現在開発中ではない」将来のAIモデル(具体的には未定)にのみ適用されます。さらに、xAIがAIソウルサミットで署名した文書の中核部分であるリスク軽減策をどのように特定し、実施するかについては明確に述べられていませんでした。
xAIは草案の中で、安全方針の改訂版を「3か月以内」、つまり5月10日までに発表する予定だと述べていた。期限は過ぎたが、xAIの公式チャンネルでは何の言及もないままだった。
マスク氏がAIの危険性を野放しにすることについて度々警告しているにもかかわらず、xAIのAI安全性に関する実績は芳しくありません。AIラボの説明責任向上を目指す非営利団体SaferAIによる最近の調査では、xAIはリスク管理の実践が「非常に脆弱」であるため、同業他社と比べて低い評価を得ていることが明らかになりました。
これは、他のAI研究室の成績が劇的に優れていることを意味するものではありません。ここ数ヶ月、GoogleやOpenAIといったxAIのライバル企業は安全性試験を急ぎ、モデルの安全性に関する報告書の公開を遅らせています(あるいは報告書の公開自体を怠っています)。一部の専門家は、AIの能力がかつてないほど向上し、それゆえに潜在的に危険な状況にある中で、安全性への取り組みが軽視されているように見える現状に懸念を表明しています。
テッククランチイベント
サンフランシスコ | 2025年10月27日~29日
トピック
カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。
バイオを見る