画像を生成する人工知能によって、児童虐待画像が増加している。これは、被害者を特定し、実際の虐待と闘うという困難な仕事をさらに複雑にしている。
画像生成の人工知能が、児童性的虐待のリアルな画像の憂慮すべき増加につながっていると、ワシントン・ポスト紙は、非営利の児童安全団体ソーンによる調査を引用して報じている。
捜査当局は、偽の画像が大量に出回ることで、被害者の発見や本物の児童虐待の撲滅が難しくなっていることを懸念している。既存の追跡システムは偽画像によって混乱し、当局を圧倒する可能性がある。当局は、通常の捜査に加えて、どの画像が本物で、どれが偽物かを見極めなければならない。
全米行方不明・被搾取児童センター(National Centre for Missing and Exploited Children)の法務部長であるイヨタ・スーラスは、AIが生成した虐待画像の急増を確認している。このような画像の大量生産は、実際の子どもたちに画像に描かれているような行動を取らせる動機付けにも利用できる、と彼女は言う。
小児性愛者フォーラムのAI軍拡競争
報告書によれば、生成人工知能ツールは、小児性愛者フォーラムでまさに軍拡競争を巻き起こしている。何千もの画像がダークウェブ・フォーラムで発見され、参加者は他の小児性愛者が自分の画像を作成する方法を共有している。彼らはオープンソースのテンプレートを利用している。
あるフォーラムで3,000人以上の参加者を対象に行われた調査では、約80%が「使用したことがある」または「使用する予定がある」と答えた。 が、児童虐待画像を作成するためにAIイメージャーを使用したことがある、あるいは使用する予定があると答えたと、アクティブフェンスの児童保護・人的搾取担当ディレクター、アヴィ・イェーガーは言う。同団体は、ソーシャルネットワークやストリーミングサイトが、そのプラットフォーム上で児童ポルノを防止するのを支援している。
米国の子どもの権利擁護団体や法執行当局は、AIが生成した画像は法律で罰せられるべきだと述べている。しかし、刑罰のレベルを決定する裁判所の判決はまだ出ていない。画像には実際の子どもが含まれていないため、連邦児童保護法に違反するかどうかは疑問である。
将来的には、AI画像と実際の写真を確実に区別できるシステムが役立ち、オンライン認識システムへの統合が可能になるかもしれない。また、AI画像を作成するソフトウェアに直接ラベルを付けるというアプローチもある。
6月上旬、FBIは、生成AIを使用して、ソーシャルメディアからの画像など既存の画像から追加の明示的な画像を作成するアプローチについて警告した。米国の捜査機関では、2023年4月以降、こうしたいわゆる「セクストーション被害」が増加しているという。情報源はThe Decoder。