L’intelligence artificielle génératrice d’images entraîne une augmentation des images d’abus d’enfants. Cela complique encore la tâche difficile d’identification des victimes et de lutte contre les abus réels.

L’intelligence artificielle génératrice d’images est à l’origine d’une augmentation alarmante du nombre d’images réalistes d’abus sexuels commis sur des enfants, rapporte le Washington Post, citant des recherches menées par Thorn, une organisation à but non lucratif qui se consacre à la sécurité des enfants.

Les enquêteurs craignent que le volume de fausses images ne rende plus difficile la recherche des victimes et la lutte contre les abus réels. Le système de repérage existant pourrait être perturbé par les fausses images, ce qui accable les autorités. Celles-ci devraient alors, en plus de leurs recherches habituelles, déterminer quelles sont les vraies images et quelles sont les fausses.

Yiota Souras, directrice des affaires juridiques au National Center for Missing and Exploited Children, confirme une forte augmentation des images d’abus générées par l’IA. La production massive de ces images peut également être utilisée pour encourager de vrais enfants à se comporter comme ils sont décrits dans les images, dit-elle.

Course à l’armement de l’IA dans les forums pédophiles

Selon le rapport, les outils d’IA générative ont déclenché une véritable course aux armements dans les forums pédophiles. Des milliers d’images ont été découvertes sur les forums du Dark Web, où les participants partagent également des instructions sur la manière dont d’autres pédophiles peuvent créer leurs propres images. Ils utilisent des modèles libres.

Lors d’une enquête menée sur un forum de plus de 3 000 participants, environ 80 ont déclaré avoir utilisé ou prévu d’utiliser un imageur d’IA pour créer des images d’abus d’enfants, a déclaré Avi Jager, directeur de la protection de l’enfance et de l’exploitation humaine chez ActiveFence. L’organisation aide les réseaux sociaux et les sites de streaming à prévenir la pornographie enfantine sur leurs plateformes.

Les défenseurs des droits de l’enfant et les représentants de la justice aux États-Unis affirment que les images générées par l’IA devraient être punies par la loi. Toutefois, aucune décision de justice n’a encore été rendue pour déterminer le niveau de sanction. Comme les images n’incluent pas de vrais enfants, on peut se demander si elles enfreignent les lois fédérales sur la protection de l’enfance.

À l’avenir, des systèmes capables de distinguer de manière fiable les images d’IA des photos réelles pourraient contribuer à leur intégration dans les systèmes de reconnaissance en ligne. Une autre approche consiste à étiqueter directement les images d’IA dans le logiciel qui les crée.

Début juin, le FBI a mis en garde contre une approche qui utilise l’IA générative pour créer des images explicites supplémentaires à partir d’images existantes, telles que celles provenant des médias sociaux. L’agence d’investigation américaine a constaté une augmentation de ces « victimes de sextorsion » depuis avril 2023. Source d’information : The Decoder.