Alarmados por los crecientes riesgos que plantean plataformas generadas por inteligencia artificial (IA) como ChatGPT, los organismos reguladores y policiales de Europa buscan formas de frenar la precipitada carrera de la humanidad hacia el futuro digital.
ChatGPT, que responde a las consultas de los usuarios en forma de ensayos, poemas, hojas de cálculo y códigos informáticos, ha registrado más de 1.600 millones de visitas desde diciembre.
Europol, la Agencia de Cooperación de la Unión Europea para la Aplicación de la Ley, advirtió a finales de marzo que ChatGPT, sólo una de las miles de plataformas de IA que se utilizan actualmente, podría ayudar a los delincuentes con la suplantación de identidad, la creación de malware e incluso actos terroristas.
«Si un delincuente potencial no sabe nada sobre un área delictiva en particular, ChatGPT puede acelerar significativamente el proceso de investigación, ofreciendo información importante que puede ser explotada en pasos posteriores», decía el informe de Europol.
«Como tal, ChatGPT puede utilizarse para aprender sobre un gran número de áreas potenciales de delincuencia sin conocimiento previo, desde cómo entrar en una casa hasta terrorismo, ciberdelincuencia y abuso sexual infantil».
El mes pasado, Italia prohibió temporalmente ChatGPT después de que un fallo expusiera los archivos de los usuarios. El consejo italiano de derechos de privacidad Garante amenazó al creador del programa, OpenAI, con multas millonarias por violación de la privacidad hasta que solucionara los problemas de destino de la información de los usuarios y estableciera restricciones de edad en la plataforma. España, Francia y Alemania están investigando denuncias de violación de datos personales, y este mes el Consejo Europeo de Protección de Datos de la UE creó un grupo de trabajo para coordinar la normativa en los 27 países de la Unión Europea.
«Es una llamada de atención en Europa», dijo a Yahoo Noticias el legislador de la UE Dragos Tudorache, copatrocinador del proyecto de ley de Inteligencia Artificial, que se está ultimando en el Parlamento Europeo y que establecería una autoridad central de IA.
«Tenemos que discernir muy claramente qué está pasando y cómo enmarcar las normas»
Aunque la inteligencia artificial forma parte de la vida cotidiana desde hace varios años -Alexa de Amazon y los juegos de ajedrez en línea son solo dos de los muchos ejemplos-, nada ha puesto de manifiesto el potencial de la IA como ChatGPT, un «gran modelo lingüístico» interactivo en el que los usuarios pueden obtener respuestas a preguntas o completar tareas en cuestión de segundos.
«ChatGPT tiene conocimientos que muy pocos humanos poseen», afirma Mark Bünger, cofundador de Futurity Systems, una agencia de consultoría con sede en Barcelona centrada en la innovación basada en la ciencia. Entre las cosas que sabe mejor que la mayoría de los seres humanos está cómo programar un ordenador. Así que probablemente será muy bueno y muy rápido programando la siguiente mejor versión de sí mismo. Y esa versión será aún mejor y programará algo que ningún humano entiende»
Esta tecnología sorprendentemente eficaz también abre la puerta a todo tipo de fraudes, según los expertos, incluidos el robo de identidades y el plagio en las escuelas.
«Para los educadores, la posibilidad de que el curso presentado pueda haber sido asistido, o incluso escrito en su totalidad, por un sistema de IA generativa como ChatGPT de OpenAI o Bard de Google, es motivo de preocupación», declaró a Yahoo News Nick Taylor, director adjunto del Centro de Robótica de Edimburgo.
OpenAI y Microsoft, que ha respaldado financieramente a OpenAI pero ha desarrollado un chatbot rival, no respondieron a una solicitud de comentarios para este artículo.
«La IA existe desde hace décadas, pero ahora está creciendo porque está al alcance de todos», afirma Cecilia Tham, directora general de Futurity Systems. Desde que ChatGPT se introdujo como prueba gratuita para el público el 30 de noviembre, dijo Tham, los programadores lo han adaptado para desarrollar miles de nuevos chatbots, desde PlantGPT, que ayuda a vigilar las plantas de interior, hasta el hipotético ChaosGPT «que está diseñado para generar salidas caóticas o impredecibles», según su sitio web, y en última instancia «destruir a la humanidad».
Otra variante, AutoGPT, abreviatura de Autonomous GPT, puede realizar tareas más complicadas orientadas a objetivos concretos. «Por ejemplo», explica Tham, «puedes decir: ‘Quiero ganar 1.000 euros al día. ¿Cómo puedo hacerlo?'- y descubrirá todos los pasos intermedios hacia ese objetivo.
Pero ¿y si alguien dice: ‘Quiero matar a 1.000 personas. ¿Dame todos los pasos para conseguirlo?
Aunque el modelo ChatGPT tiene restricciones sobre la información que puede dar, señala que «la gente se las ha arreglado para piratearlo».
Los riesgos potenciales de los chatbots y de la IA en general llevaron al Future of Life Institute, un think tank centrado en la tecnología, a publicar el mes pasado una carta abierta en la que pedía detener temporalmente el desarrollo de la IA. Firmada por Elon Musk y el cofundador de Apple Steve Wozniak, señalaba que
«Los sistemas de IA con inteligencia humana competitiva pueden plantear profundos riesgos para la sociedad y la humanidad» y «los laboratorios de IA están inmersos en una carrera incontrolada por desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede comprender, predecir o controlar de forma fiable».
Los firmantes piden una pausa de seis meses en el desarrollo de sistemas de IA más potentes que la GPT-4 para poder elaborar una normativa, e instan a los gobiernos a «instituir una moratoria» si los principales actores del sector no lo hacen voluntariamente.
El parlamentario europeo Brando Benifei, copatrocinador de la Ley de IA, se burla de la idea. «Una moratoria no es realista», declaró a Yahoo Noticias. «Lo que debemos hacer es seguir trabajando para encontrar las normas adecuadas para el desarrollo de la IA», dijo, «también necesitamos un debate global sobre cómo abordar los retos de esta IA tan poderosa».
Esta semana, los legisladores de la UE que trabajan en IA publicaron una «llamada a la acción» en la que pedían al Presidente Biden y a la Presidenta de la Comisión Europea, Ursula von der Leyen, que «convoquen una cumbre mundial de alto nivel» para establecer «un conjunto preliminar de principios para el desarrollo, control y despliegue» de la IA.
Tudorache explicó a Yahoo Noticias que la Ley de IA, cuya promulgación está prevista para el año que viene, «otorga nuevos poderes a los reguladores para hacer frente a las aplicaciones de IA» y faculta a los organismos reguladores de la UE para imponer multas cuantiosas. La legislación también incluye una clasificación de riesgos de diversas actividades de IA y prohíbe usos como la «puntuación social», un esquema de supervisión distópico que clasificaría prácticamente todas las interacciones sociales en una escala de méritos.
«Los consumidores deben saber qué datos utiliza y almacena ChatGPT y para qué los utiliza», declaró a Yahoo Noticias Sébastien Pant, subdirector de comunicación de la Organización Europea de Consumidores (BEUC). «Todavía no tenemos claro qué datos se están utilizando ni si la recopilación de datos respeta la ley de protección de datos»
EE.UU., por su parte, sigue rezagado en la adopción de medidas concretas para regular la IA, a pesar de las preocupaciones planteadas recientemente por el comisario de la FTC, Álvaro Bedoya, de que «la IA se está utilizando ahora para decidir a quién se contrata, a quién se despide, a quién se le concede un préstamo, quién permanece en el hospital y a quién se envía a casa».
Cuando hace poco le preguntaron a Biden si la IA podía ser peligrosa, respondió: «Está por ver, podría serlo».
Las diferentes actitudes sobre la protección de los datos personales de los consumidores se remontan a décadas atrás, según declaró a Yahoo Noticias Gabriela Zanfir-Fortuna, vicepresidenta de privacidad global del Future of Privacy Forum, un think tank centrado en la protección de datos.
«La UE ha dado gran importancia a la forma en que los derechos de las personas se ven afectados por la automatización de sus datos personales en esta nueva era digital e informatizada, hasta el punto de incluir una disposición en su Carta de Derechos Fundamentales», dijo Zanfir-Fortuna.
Países europeos como Alemania, Suecia y Francia adoptaron leyes de protección de datos hace 50 años, añadió. «Los legisladores estadounidenses parecen haberse preocupado menos por este tema en décadas anteriores, ya que el país aún no cuenta con una ley general de protección de datos a nivel federal».
Mientras tanto, Gerd Leonhard, autor de «Technology vs. Humanity», y otros se preocupan por lo que ocurrirá cuando ChatGPT y formas más avanzadas de IA sean utilizadas por militares, instituciones bancarias y quienes trabajan en problemas medioambientales.
«El chiste habitual en la comunidad de la IA», dice Leonhard, «es que si le pides a la IA que solucione el cambio climático, mataría a todos los humanos. Es inconveniente para nosotros, pero es la respuesta más lógica»
Referencias de Yahoo.