La inteligencia artificial generadora de imágenes está provocando un aumento de las imágenes de abusos a menores. Esto complica aún más la difícil tarea de identificar a las víctimas y combatir los abusos reales.

La inteligencia artificial generadora de imágenes ha sido responsable de un alarmante aumento de imágenes realistas de abusos sexuales a menores, informa el Washington Post, citando una investigación de Thorn, una organización sin ánimo de lucro centrada en la seguridad infantil.

A los investigadores les preocupa que el volumen de imágenes falsas esté dificultando la búsqueda de víctimas y la lucha contra los abusos infantiles reales. El sistema de rastreo existente podría verse confundido por las imágenes falsas, abrumando a las autoridades. Tendrían que averiguar qué imágenes son reales y cuáles falsas, además de realizar sus búsquedas habituales.

Yiota Souras, directora de asuntos jurídicos del Centro Nacional para Menores Desaparecidos y Explotados, confirma un fuerte aumento de las imágenes de abusos generadas por IA. La producción masiva de estas imágenes también puede utilizarse para animar a los niños reales a comportarse como aparecen en ellas, afirma.

Carrera armamentística de la IA en los foros de pedofilia

Según el informe, las herramientas de IA generativa han desatado una auténtica carrera armamentística en los foros de pedofilia. Se han descubierto miles de imágenes en foros de la Dark Web, donde los participantes también comparten instrucciones sobre cómo otros pedófilos pueden crear sus propias imágenes. Utilizan plantillas de código abierto.

En una encuesta realizada en un foro de más de 3.000 participantes, alrededor del 80 afirmaron que habían utilizado o tenían previsto utilizar un generador de imágenes de IA para crear imágenes de abuso infantil, según Avi Jager, director de protección infantil y explotación humana de ActiveFence. Esta organización ayuda a redes sociales y sitios de streaming a prevenir la pornografía infantil en sus plataformas.

Defensores de los derechos de los niños y funcionarios de justicia de Estados Unidos afirman que las imágenes generadas por IA deberían estar penadas por la ley. Sin embargo, aún no hay decisiones judiciales que determinen el nivel de castigo. Como las imágenes no incluyen a niños reales, cabe preguntarse si infringen las leyes federales de protección de la infancia.

En el futuro, los sistemas que puedan distinguir de forma fiable entre imágenes de IA y fotos reales podrían ayudar permitiendo su integración en sistemas de reconocimiento en línea. Otro enfoque consiste en etiquetar directamente las imágenes de IA en el software que las crea.

A principios de junio, el FBI alertó sobre un enfoque que utiliza IA generativa para crear imágenes adicionales explícitas a partir de imágenes existentes, como las procedentes de las redes sociales. La agencia de investigación estadounidense ha observado un aumento de estas llamadas «víctimas de sextorsión» desde abril de 2023. Con fuente de información de The Decoder.