A inteligência artificial geradora de imagens está levando a um aumento nas imagens de abuso infantil. Isso complica ainda mais a difícil tarefa de identificar vítimas e combater o abuso real.

A inteligência artificial geradora de imagens tem sido responsável por um alarmante aumento de imagens realistas de abuso sexual infantil, segundo relatos do Washington Post, citando pesquisas da Thorn, uma organização sem fins lucrativos voltada para a segurança infantil.

Investigadores estão preocupados com o fato de que o volume de imagens falsas está dificultando a busca por vítimas e o combate ao abuso infantil real. O sistema de rastreamento existente pode ser confundido pelas imagens falsas, sobrecarregando as autoridades. Elas teriam que descobrir quais imagens são reais e quais são falsas, além de realizar suas pesquisas normais.

Yiota Souras, diretora de assuntos jurídicos do National Center for Missing and Exploited Children, confirma um aumento acentuado de imagens de abuso geradas por IA. A produção em massa dessas imagens também pode ser usada para incentivar crianças reais a se comportarem conforme retratado nas imagens, ela afirma.

Corrida armamentista de IA em fóruns pedófilos

Ferramentas de inteligência artificial generativa desencadearam uma verdadeira corrida armamentista em fóruns pedófilos, de acordo com o relatório. Milhares de imagens foram descobertas em fóruns da Dark Web, onde os participantes também compartilham instruções sobre como outros pedófilos podem criar suas próprias imagens. Eles utilizam modelos de código aberto.

Em uma pesquisa realizada em um fórum com mais de 3.000 participantes, cerca de 80% afirmaram ter usado ou planejado usar um gerador de imagens de IA para criar imagens de abuso infantil, afirmou Avi Jager, diretor de proteção infantil e exploração humana na ActiveFence. A organização ajuda redes sociais e sites de streaming a prevenir a pornografia infantil em suas plataformas.

Defensores dos direitos das crianças e autoridades da justiça nos Estados Unidos afirmam que imagens geradas por IA devem ser puníveis por lei. No entanto, ainda não existem decisões judiciais que determinem o nível de punição. Como as imagens não incluem crianças reais, é questionável se elas violam as leis federais de proteção infantil.

No futuro, sistemas capazes de distinguir de forma confiável entre imagens de IA e fotos reais poderiam ajudar, permitindo sua integração em sistemas de reconhecimento online. Outra abordagem é rotular diretamente as imagens de IA no software que as cria.

No início de junho, o FBI alertou sobre uma abordagem que utiliza IA generativa para criar imagens adicionais e explícitas a partir de imagens existentes, como aquelas oriundas das redes sociais. A agência investigativa dos EUA tem observado um aumento nesses chamados “vítimas de sextorsão” desde abril de 2023. Com fonte de informação do The Decoder.