Las imágenes generadas por IA están volviéndose cada vez más realistas, y hasta el momento no existe una manera confiable de detectarlas. Los investigadores del MIT pueden no ser capaces de cambiar esto, pero al menos pueden proteger imágenes existentes contra la manipulación de IA.
En lugar de intentar detectar la manipulación, los investigadores desean hacer que las imágenes originales sean más resistentes, de modo que la manipulación sea imposible o muy difícil.
«PhotoGuard» es el nombre del sistema que introduce perturbaciones mínimas en los píxeles de una imagen original que son invisibles para los humanos, pero que pueden ser detectadas por sistemas de IA.
Estas perturbaciones están diseñadas para hacer que la manipulación de imágenes sea mucho más difícil. El sistema fue desarrollado por el Laboratorio de Ciencia de la Computación e Inteligencia Artificial (CSAIL) del Instituto de Tecnología de Massachusetts (MIT).
l PhotoGuard utiliza dos métodos para «inmunizar» una imagen contra la manipulación de IA. El primer método, llamado «ataque del codificador», se enfoca en la abstracción existente de la imagen por parte del modelo de IA en el espacio latente y manipula los datos de tal manera que el modelo ya no reconoce claramente la imagen original, introduciendo fallas. El cambio es similar a una frase gramaticalmente incorrecta, cuyo significado aún es claro para los humanos, pero que puede confundir a un modelo de lenguaje.
El segundo método, llamado «ataque de difusión», es más sofisticado: para una imagen original, se define una imagen de destino específica que se determina mediante cambios mínimos de píxeles en la imagen original durante la inferencia. Cuando el modelo de IA intenta modificar la imagen original, es redirigido automáticamente a la imagen de destino definida por los investigadores, y el resultado ya no tiene sentido. Mira el video a continuación para ver el sistema en acción.
Integrando la protección contra la manipulación directamente en los modelos
Los investigadores sugieren que sus protecciones, o protecciones similares, podrían ser ofrecidas directamente por los desarrolladores de modelos. Por ejemplo, podrían proporcionar un servicio a través de una API que permita que las imágenes sean inmunizadas contra las capacidades de manipulación de su modelo específico. Esta inmunización también necesitaría ser compatible con modelos futuros y podría incorporarse como una puerta trasera durante el entrenamiento del modelo.
Una protección amplia contra la manipulación de IA requerirá un enfoque colaborativo entre los desarrolladores, las plataformas de medios sociales y los formuladores de políticas, que podrían, por ejemplo, exigir que los desarrolladores de modelos también ofrezcan protección, afirman los investigadores.
También señalan que el PhotoGuard no proporciona una protección completa. Los atacantes podrían intentar manipular la imagen protegida, por ejemplo, recortándola, agregando ruido o girándola. Sin embargo, en general, los investigadores ven potencial para desarrollar modificaciones robustas que puedan resistir tales manipulaciones.