信頼と安全の専門家のためのCSAM入門 | TechCrunch

信頼と安全の専門家のためのCSAM入門 | TechCrunch
ロン・ポラット

今年、児童性的虐待コンテンツ(CSAM)をめぐる規制と技術に関する議論が再燃した大きな出来事が二つあります。一つ目は、VisaとMasterCardがCSAMコンテンツを含むアダルトサイトを取り締まったことです。二つ目は、CSAMがコンテンツ、ソーシャル、検索、ホスティングプラットフォームにおいて、これまで考えられていたよりもはるかに蔓延しているという認識です。

L1ght では、Trust & Safety チームがソーシャル プラットフォーム、コンテンツ サイト、検索製品からそのようなコンテンツを特定して削除するのを支援しているため、いくつかの主要な地域における CSAM 分類と規制の共通点の概要を共有することが有益だと考えました。

注:この入門書は長さの都合上、一部編集されています。完全版(無料)はこちらからダウンロードできます:l1ght.com

背景と定義

児童ポルノ(別名「児童性的虐待物」)は、児童を性的満足のために搾取するタイプのポルノです。児童ポルノの制作には、児童への直接的な関与や性的暴行が含まれるか、俳優やアニメーションを用いてそれを模倣したものが含まれます。

長年にわたり、政府、法執行機関、学界、NGOは、CSAMの正確な構成要素を定義し、その様々な形態をどのように区別するかについて、指針となる「尺度」または「分類」の作成に取り組んできました。政府機関がCSAMを定義するだけでなく、明確に定義された重大性の範囲に応じて違反者を処罰できる、単一でシンプルかつ明確な尺度を作成する必要性が生じました。しかしながら、様々な理由から、CSAM尺度に関する合意が得られず、地域によって異なる州や国のバージョンが開発されるに至りました。

この記事では、頭字語として CSAM (Child Sexual Abusive Material) を使用します。 

イギリス

CSAM分類に関する最初の画期的な研究は、アイルランドのカレッジ・コーク大学応用心理学部で行われました。そこで開発された評価システムは、COPINEプロジェクト(「欧州における小児性愛者情報ネットワークへの対策」)の一環として、主に英国で児童性的虐待画像の重症度を分類するために使用されました。以下の表をご覧ください。

画像クレジット: L1ght (新しいウィンドウで開きます)
  • レベル 1 - 商業的な情報源または家族アルバムからの、下着または水着を着用した子供が写っている非エロティックで非性的な写真。収集者による写真の文脈または構成が不適切であることを示す、通常の状況で遊んでいる子供の写真。
  • レベル 2 - 適切なヌーディスト環境で撮影された、合法的なソースからの、裸または半裸の子供の写真。
  • レベル 3 - 遊び場やその他の安全な環境で、下着姿またはさまざまなレベルの裸を映した子供の写真をこっそり撮影します。
  • レベル 4 – 完全に服を着た、部分的に服を着た、または裸の子供の写真を意図的にポーズをとらせたもの(量、状況、構成から性的関心が示唆される場合)。
  • レベル 5 – 完全に、または部分的に服を着た、あるいは裸の子供が性的または挑発的なポーズを意図的に取った写真。
  • レベル6 – 子供が裸、部分的に服を着ている、または完全に服を着ている性器の部分を強調した写真
  • レベル 7 - 大人が関与しない、子供による接触、相互および自慰行為、オーラルセックス、性交を描いた写真。
  • レベル 8 - デジタルタッチを含む、大人による性的暴行を受けている子供たちの写真。
  • レベル 9 – 成人による性交、自慰行為、オーラルセックスなど、性的暴行を描写した極めてわいせつな画像。
  • レベル 10 – (i) 子供が縛られたり、拘束されたり、殴られたり、鞭打たれたり、その他痛みを暗示する行為を受けている写真。 (ii) 動物が子供に対して何らかの性的行為を行っている写真。

COPINE分類は心理療法的な目的に重点が置かれていましたが、児童わいせつ画像を「等級分け」し、より司法手続きに有用な尺度の必要性が生じました。この目的のため、イングランド・ウェールズ控訴裁判所における「レジーナ対オリバー」事件を契機として、COPINE用語に基づいたより簡便な尺度、SAP尺度が作成されました。

画像クレジット: L1ght (新しいウィンドウで開きます)

2013年には、新たな「性的犯罪に関する決定的ガイドライン」(SODG)が公表されました。この尺度は2014年にイングランドおよびウェールズの量刑に採用され、現在に至るまで、各管轄区域における性的犯罪(CSAM)の評価における「頼りになる」尺度となっています。

画像クレジット: L1ght

(新しいウィンドウで開きます)

アメリカ合衆国

米国の法律では、児童ポルノは、未成年者(18歳未満)を対象とする性的に露骨な行為の視覚的描写を形態とする児童の性的搾取の一形態と定義されています。視覚的描写には、写真、動画、実在の未成年者と区別がつかないデジタル画像またはコンピュータ生成画像、および作成、改変、または修正されているにもかかわらず、実在の未成年者を識別可能な形で描写しているように見える画像が含まれます。児童ポルノの視覚的画像に変換可能な電子的に保存されたデータも、連邦法において違法な視覚的描写とみなされます。 

司法省(DOJ)によると、「性的に露骨な行為」の法的定義は、必ずしも児童が性行為を行っている様子を描写している必要はなく、児童の裸体の描写であっても、十分に性的に示唆的であれば違法な児童ポルノに該当する可能性があるとされています。児童ポルノ画像は憲法修正第一条の権利によって保護されておらず、連邦法では違法な禁制品です。 

児童ポルノの頒布と受領は、1977年に「児童の性的搾取からの保護」法が可決されて以来、議会の懸念事項となっています。この法律は、児童をポルノ製作に利用することを禁じ、人身売買の初犯者には最長10年の懲役、再犯者には法定最長15年の懲役に加え、2年の最低刑を定めています。 

議会は1984年に児童保護法を可決し、児童ポルノの製作者と密売人への罰則を拡大することで、密売人に対する姿勢をさらに明確にしました。1986年には、「ミース報告書」を受けて、議会は「児童性的虐待およびポルノ」法(1986年)と「児童虐待被害者の権利」法(1986年)を制定しました。後者は、被害者に対する民事上の救済措置を規定し、児童ポルノの再犯者に対する最低刑を2年から5年に引き上げました。

現在、連邦法では、法定最低刑は5年から20年、終身刑(犯罪者が児童性的搾取で有罪判決を受けたことがある場合、または画像が暴力的で児童が性的虐待を受けたことがある場合)までとなっている。 

児童ポルノの所持、作成、受領、頒布は全50州において連邦法および州法の両方で違法ですが、州法の違いにより事案が複雑になる場合があります。初回所持罪が重罪とみなされるか軽罪とみなされるかは州によって異なります。しかしながら、インターネット上で児童ポルノ違反が発生した場合、連邦管轄権はほぼ常に適用されます。 

連邦 CSAM 有罪判決の量刑は次のとおりです。

画像クレジット: L1ght

カナダ

カナダの法律では、「道徳を腐敗させる傾向のある犯罪」(1985年)の定義において、証拠が以下の4つのカテゴリーのいずれかに該当する場合に児童ポルノと定義されます。

  1. 写真、映画、ビデオ、その他の視覚的表現(電子的または機械的手段によって作成されたかどうかに関係なく)
    1. 18歳未満の人物が露骨な性行為を行っているか、または行っているように描写されているもの、または
    2. 性的目的で18歳未満の人の性器または肛門領域を描写することが主な特徴である表現。
  2. 18 歳未満の人物との性的行為を推奨または助言する書面資料、視覚的表現、または音声録音。
  3. 性的目的で 18 歳未満の人物との性行為を描写することを主な特徴とする文書。
  4. 18 歳未満の人物との性行為を性的目的で描写、提示、または表現することを主な特徴とする音声録音。

上記の法律によれば、児童ポルノ犯罪は(i)作成、(ii)頒布、(iii)所持、(iv)アクセスの4つの種類に明確に区別されています。裁判所が児童ポルノ犯罪が営利目的で行われたと判断した場合、これは犯罪者が受ける刑罰の重さを決定する上で「加重要素」とみなされます。  

法律では、児童ポルノの所持が犯罪とならない状況も規定されています。そのような例外の一つとして、被告人が資料に描かれた人物が18歳以上であると信じ、「その人物の年齢を確認するためにあらゆる合理的な手段を講じた」ことが挙げられます。児童ポルノの所持は、「司法の執行、科学、医学、教育、芸術に関連する正当な目的」で所持され、「18歳未満の者に過度の危害を及ぼすリスクがない」場合にも違法とはなりません。

すべてのCSAM犯罪には、義務的最低刑が規定されており、裁判官に刑期短縮の裁量権は与えられていません。義務的最低刑は過去10年間で引き上げられており、現在は以下のとおりです。

画像クレジット: L1ght (新しいウィンドウで開きます)

CSAMを分類するために使用される技術

テクノロジーが支配的な時代においても、CSAMの識別は人手によって行われています。これは「リアルタイム」での対応を不可能にするだけでなく、そのような有毒物質にさらされた人々に大きな心理的負担をもたらします。

現在、CSAMの識別には主に2つの技術的コンセプトが用いられています。1つ目は、既知のファイルのフィンガープリンティング(「ハッシュ」と呼ばれる)に基づくものです。2つ目は、CSAMの識別に画像分析と機械学習を用いるものです。

ハッシュ

ハッシュ化により、CSAM メディア ファイルを次のプロセスで「フィンガープリント」できます。

  1. メディア ファイルに CSAM が含まれているというフラグが付けられます。
  2. 人間のモデレーターによって評価されます。
  3. CSAM であると判断された場合、ファイルは数学的な「ハッシュ」アルゴリズムに送信され、文字と数字の文字列に変換されます。(例: b31d032cfdcf47a399990a71e43c5d2a)。
  4. 文字列はサードパーティと共有されるデータベースに保存されます。

ハッシュ化された CSAM 画像の最大のデータベースは、Microsoft によって「PhotoDNA」として提供されています。 

この方法の 2 つの欠点は、1) 新しい CSAM (わずかに変更されていても) が識別されないこと、2) ハッシュ プロセス自体をトリガーするために CSAM の存在を判断するために人間によるモデレーションが必要になることです。 

機械学習

機械学習(L1ghtが開発した手法)により、コンピュータビジョンアルゴリズムは画像にCSAMが含まれているかどうかを判定するように学習します。これは、CSAMが含まれていると既に判定されている画像をアルゴリズムに「入力」することで行われます。 

これらの機械学習モデルは、人間の思考や行動の仕方をシミュレートします。 

この方法の利点は、1) 既知および未知の CSAM を大規模に識別する能力が劇的に向上すること、2) 人間のモデレーターへの心理的影響が軽減されることです。

この入門書の完全版は、こちらからダウンロードできます: l1ght.com