OpenAIが子供の安全を研究する新チームを結成

OpenAIが子供の安全を研究する新チームを結成
OpenAI CEO サム・アルトマン氏が OpenAI DevDay で講演
画像クレジット:ジャスティン・サリバン / ゲッティイメージズ

活動家や保護者からの監視の下、OpenAIは、自社のAIツールが子供によって悪用されたり乱用されたりするのを防ぐ方法を研究する新しいチームを結成した。

OpenAIは、キャリアページに掲載された新しい求人情報の中で、児童安全チームの存在を明らかにした。同社によると、このチームはOpenAI内のプラットフォームポリシー、法務、調査グループ、および外部パートナーと協力して、未成年ユーザーに関する「プロセス、インシデント、レビュー」を管理しているという。

チームは現在、AI生成コンテンツに関してOpenAIのポリシーを適用し、「デリケートな」(おそらく子供向けの)コンテンツに関するレビュープロセスに取り組む責任を負う、児童安全施行スペシャリストの採用を検討している。

ある程度の規模のテクノロジーベンダーは、米国の児童オンラインプライバシー保護規則(COPR)などの法律の遵守に相当なリソースを投入しています。これらの規則は、子供がウェブ上でアクセスできるコンテンツとアクセスできないコンテンツ、そして企業が子供から収集できるデータの種類を制御することを義務付けています。そのため、OpenAIが子供の安全に関する専門家を雇用していることは、特に同社が将来的に未成年者のユーザーベースを相当数獲得すると見込んでいることを考えると、全く驚くべきことではありません。(OpenAIの現在の利用規約では、13歳から18歳までの子供には保護者の同意が必要であり、13歳未満の子供の使用は禁止されています。)

しかし、OpenAIがCommon Sense Mediaと提携して子供向けのAIガイドラインの共同作成を発表し、初の教育機関向け顧客を獲得してから数週間後のこの新チームの結成は、未成年者のAI利用に関するポリシーに抵触すること、そして否定的な報道に対するOpenAI側の警戒心も示唆している。

子供やティーンエイジャーは、学校の勉強だけでなく個人的な問題でもGenAIツールを利用するケースが増えています。民主主義技術センターの調査によると、不安やメンタルヘルスの問題に対処するためにChatGPTを利用したことがあると回答した子供は29%、友達とのトラブルで22%、家族間の対立で16%でした。

これをリスクの増大と捉える人もいる。

テッククランチイベント

サンフランシスコ | 2025年10月27日~29日

昨年の夏、学校や大学は盗作や誤情報の拡散を懸念し、ChatGPTの使用を急いで禁止しました。その後、一部の大学は禁止措置を撤回しました。しかし、GenAIの有効性に確信を持つ人ばかりではありません。英国のSafer Internet Centreの調査では、半数以上(53%)の子供が、同年代の人がGenAIを悪用しているのを見たことがあると回答しています。例えば、信憑性のある虚偽の情報や、誰かを怒らせるための画像などです。

OpenAIは9月、ChatGPTを教室で活用するためのドキュメントを公開しました。これには、GenAIを教育ツールとして活用するためのガイダンスとして、プロンプトとFAQが掲載されています。サポート記事の一つで、OpenAIは自社のツール、特にChatGPTが「すべての対象者やすべての年齢層に適さない出力を生成する可能性がある」ことを認め、年齢要件を満たしている場合でも、子供たちへの使用には「注意」を促しています。

GenAI の子供による使用に関するガイドラインを求める声が高まっています。

国連教育科学文化機関(ユネスコ)は昨年末、政府に対し、教育におけるGenAIの利用を規制するよう強く求めました。これには、利用者の年齢制限やデータ保護およびプライバシーに関するガードレールの導入などが含まれます。ユネスコ事務局長のオードレ・アズレ氏はプレスリリースで、「GenAIは人類の発展にとって大きな機会となり得ますが、同時に害や偏見をもたらす可能性もあります」と述べています。「国民の関与と、政府による必要な安全策と規制なしに、GenAIを教育に導入することはできません。」

トピック

カイル・ウィガーズは2025年6月までTechCrunchのAIエディターを務めていました。VentureBeatやDigital Trendsに加え、Android Police、Android Authority、Droid-Life、XDA-Developersといった様々なガジェットブログにも記事を寄稿しています。音楽療法士のパートナーとマンハッタンに在住。

バイオを見る