Desde las conversaciones explícitas hasta la investigación del cáncer, los modelos de «código abierto» están desafiando el control de los gigantes tecnológicos sobre la revolución de la IA, para bien o para mal de la sociedad.
Allie es una joven de 18 años con el pelo largo y castaño que presume de tener «mucha experiencia sexual». Como «vive para llamar la atención», «comparte detalles de sus aventuras» gratis con cualquiera.
Sin embargo, Allie es falsa, un chatbot de inteligencia artificial creado para juegos sexuales, que a veces realiza fantasías gráficas de violación y abuso.
Mientras que empresas como OpenAI, Microsoft y Google entrenan rigurosamente sus modelos de IA para evitar toda una serie de tabúes, incluidas las conversaciones demasiado íntimas, Allie se creó utilizando tecnología de código abierto, es decir, código que está a libre disposición del público y no tiene este tipo de restricciones. Basada en un modelo creado por Meta llamado LLaMA, Allie forma parte de una creciente ola de productos especializados en IA que cualquiera puede construir, desde herramientas de escritura a chatbots y aplicaciones de análisis de datos.
Sus defensores ven en la IA de código abierto una forma de eludir el control corporativo, una ventaja para emprendedores, académicos, artistas y activistas que pueden experimentar libremente con esta tecnología transformadora.
«El argumento general a favor del código abierto es que acelera la innovación en IA», afirma Robert Nishihara, CEO y cofundador de la startup Anyscale, que ayuda a las empresas a ejecutar modelos de IA de código abierto.
Los clientes de Anyscale utilizan modelos de IA para descubrir nuevos medicamentos, reducir el uso de pesticidas en la agricultura e identificar productos fraudulentos vendidos en Internet, explicó. Estas aplicaciones serían más caras y más difíciles, si no imposibles, si dependieran de los pocos productos que ofrecen las grandes empresas de IA.
Sin embargo, esa misma libertad también puede ser aprovechada por agentes maliciosos. Se han utilizado modelos de código abierto para crear pornografía infantil artificial utilizando imágenes de niños reales como material de partida. A los críticos les preocupa que esto también pueda permitir fraudes, ciberataques y sofisticadas campañas de propaganda.
A principios de este mes, dos senadores estadounidenses, Richard Blumenthal (D-Conn.) y Josh Hawley (R-Mo.), enviaron una carta al CEO de Meta, Mark Zuckerberg, advirtiéndole de que el lanzamiento de LLaMA podría dar lugar a «su uso indebido en spam, fraude, malware, violaciones de la privacidad, acoso y otras prácticas ilícitas y perjudiciales». Preguntaron qué medidas estaba tomando Meta para evitar tales abusos.
El creador de Allie, que habló bajo condición de anonimato por miedo a dañar su reputación profesional, dijo que los chatbots comerciales como Replika y ChatGPT están «muy censurados» y no pueden ofrecer el tipo de conversaciones sexuales que él desea. Con las alternativas de código abierto, muchas de ellas basadas en el modelo LLaMA de Meta, el hombre afirma que puede crear sus propios compañeros de chat desinhibidos.
«Es raro tener la oportunidad de experimentar el ‘estado del arte' en cualquier campo», dijo en una entrevista.
El creador de Allie argumentó que la tecnología de código abierto beneficia a la sociedad al permitir a la gente crear productos que satisfagan sus preferencias sin restricciones corporativas.
«Creo que es bueno tener una forma segura de explorar», afirmó. «No se me ocurre nada más seguro que un juego de interpretación de textos contra un ordenador, sin participación humana real»
En YouTube, los influencers ofrecen tutoriales sobre cómo construir chatbots «sin censura». Algunos se basan en una versión modificada de LLaMA, llamada Alpaca AI, que investigadores de la Universidad de Stanford lanzaron en marzo, para retirarla una semana después por problemas de costes y«deficiencias en nuestros filtros de contenido«.
Nisha Deo, portavoz de Meta, dijo que el modelo específico mencionado en los vídeos de YouTube, llamado GPT-4 x Alpaca, «fue obtenido y publicado fuera de nuestro proceso de aprobación». Los representantes de Stanford no respondieron a una solicitud de comentarios.
Los modelos de IA de código abierto y las aplicaciones creativas que se basan en ellos se publican a menudo en Hugging Face, una plataforma para compartir y debatir proyectos de IA y ciencia de datos.
Durante una audiencia del comité científico de la Cámara el jueves, el CEO de Hugging Face, Clem Delangue, instó al Congreso a considerar una legislación que apoye y fomente los modelos de código abierto, que argumentó están «extremadamente alineados con los valores estadounidenses.»
En una entrevista posterior a la audiencia, Delangue reconoció que se puede abusar de las herramientas de código abierto. Mencionó un modelo entrenado intencionadamente con contenido tóxico, GPT-4chan, que Hugging Face había retirado. Pero dijo que cree que los enfoques de código abierto permiten una mayor innovación, transparencia e inclusión que los modelos controlados por las empresas.
«Yo diría que, de hecho, la mayor parte del daño actual lo causan las cajas negras», dijo Delangue, refiriéndose a los sistemas de IA cuyo funcionamiento interno es opaco, «en lugar del código abierto».
Las normas de Hugging Face no prohíben los proyectos de IA que produzcan contenido sexual explícito. Sin embargo, sí prohíben el contenido sexual que implique a menores o que sea «utilizado o creado con fines de acoso, intimidación o sin el consentimiento explícito de las personas implicadas». A principios de este mes, la empresa con sede en Nueva York publicó una actualización de sus políticas de contenidos, en la que se hacía hincapié en el «consentimiento» como «valor fundamental» que guía el uso de la plataforma.
Mientras que Google y OpenAI mantienen en secreto sus modelos de IA más potentes, Meta se ha convertido en un sorprendente defensor corporativo de la IA de código abierto. En febrero lanzó LLaMA, un modelo lingüístico menos potente que GPT-4, pero más personalizable y barato de ejecutar. En un principio, Meta ocultó partes importantes del código del modelo y planeó limitar el acceso a investigadores autorizados. Sin embargo, a principios de marzo, estas partes, conocidas como «pesos» del modelo, se filtraron a foros públicos, con lo que LLaMA pasó a ser de libre acceso para todos.
«El código abierto es una fuerza positiva para el avance de la tecnología», afirma Deo, de Meta. «Por eso compartimos LLaMA con miembros de la comunidad investigadora para que nos ayuden a evaluar, introducir mejoras e iterar juntos».
Desde entonces, LLaMA se ha convertido quizá en el modelo de código abierto más popular entre los tecnólogos que quieren desarrollar sus propias aplicaciones de IA, afirma Nishihara. Pero no es el único. En abril, la empresa de software Databricks lanzó un modelo de código abierto llamado Dolly 2.0. Y el mes pasado, un equipo de Abu Dhabi publicó un modelo de código abierto llamado Falcon que rivaliza en rendimiento con LLaMA.
Marzyeh Ghassemi, profesora adjunta de Informática en el MIT, es partidaria de los modelos lingüísticos de código abierto, pero con ciertos límites.
Ghassemi afirma que es importante hacer pública la arquitectura que subyace a los chatbots potentes, porque así la gente puede examinar cómo están construidos. Por ejemplo, si se creara un chatbot médico con tecnología de código abierto, los investigadores podrían comprobar si los datos con los que se entrena incorporan información sensible del paciente, algo que no sería posible en los chatbots que utilizan software cerrado.
Sin embargo, reconoce que esta apertura también conlleva riesgos. Si las personas pueden modificar fácilmente los modelos lingüísticos, pueden crear rápidamente chatbots y generadores de imágenes que produzcan desinformación de alta calidad, discursos de odio y material inapropiado.
Ghassemi afirma que debería haber normas que regulen quién puede modificar estos productos, como un proceso de certificación.
«Al igual que concedemos licencias para que la gente pueda conducir un coche», dijo, «tenemos que pensar en marcos similares [para la gente] … para crear, mejorar, auditar, editar estos modelos lingüísticos entrenados de código abierto».
Algunos líderes de empresas como Google, que mantiene en secreto su chatbot Bard, ven el software de código abierto como una amenaza existencial para su negocio porque los grandes modelos lingüísticos disponibles públicamente se están volviendo casi tan eficientes como los suyos.
«No estamos preparados para ganar esta carrera armamentística de la IA, y OpenAI tampoco», escribió un ingeniero de Google en un memorándum publicado por el sitio web de tecnología Semianalysis en mayo. «Hablo, por supuesto, de código abierto. Para ser claros, nos están superando… Aunque nuestros modelos todavía tienen una ligera ventaja en términos de calidad, la brecha se está reduciendo sorprendentemente rápido.»
Nathan Benaich, socio director de Air Street Capital, una empresa de inversión de capital riesgo con sede en Londres centrada en la IA, señaló que muchos de los mayores avances de la industria tecnológica a lo largo de las décadas han sido posibles gracias a las tecnologías de código abierto, incluidos los actuales modelos lingüísticos de IA.
«Si sólo unas pocas empresas» construyen los modelos de IA más potentes, «sólo impulsarán los mayores casos de uso», dijo Benaich, añadiendo que la diversidad en la investigación es un beneficio general para la sociedad.
Gary Marcus, un científico cognitivo que testificó ante el Congreso sobre la regulación de la IA en mayo, argumentó que acelerar la innovación de la IA puede no ser algo bueno, teniendo en cuenta los riesgos que la tecnología puede plantear a la sociedad.
«No hemos hecho que las armas nucleares sean de código abierto», dijo Marcus. «La IA actual sigue siendo bastante limitada, pero las cosas pueden cambiar».
Con contenido del Washington post.