El martes, el Center for AI Safety (CAIS) publicó una declaración de una sola frase firmada por ejecutivos de OpenAI y DeepMind, ganadores del Premio Turing, y otros investigadores de IA, advirtiendo que su trabajo podría potencialmente extinguir a toda la humanidad.

La breve declaración, que el CAIS afirma estar destinada a abrir una discusión sobre el tema de «una amplia gama de riesgos importantes y urgentes de la IA», dice lo siguiente: «Mitigar el riesgo de extinción causado por la IA debe ser una prioridad global, junto con otros riesgos de escala societal, como pandemias y guerra nuclear».

Entre los firmantes prominentes de la declaración se encuentran los ganadores del Premio Turing Geoffrey Hinton y Yoshua Bengio, el CEO de OpenAI Sam Altman, el científico jefe de OpenAI Ilya Sutskever, el CTO de OpenAI Mira Murati, el CEO de DeepMind Demis Hassabis, el CEO de Anthropic Dario Amodei y profesores de UC Berkeley, Stanford y MIT.

Esta declaración surge mientras Altman viaja por el mundo, realizando reuniones con jefes de Estado sobre la IA y sus peligros potenciales. A principios de mayo, Altman defendió la regulación de su industria ante el Senado de los Estados Unidos.

Dada su breve extensión, la carta abierta del CAIS es notable por lo que no incluye. Por ejemplo, no especifica exactamente qué se entiende por «IA», considerando que el término puede aplicarse desde movimientos de fantasmas en Pac-Man hasta modelos de lenguaje capaces de escribir sonetos al estilo de astutos gánsteres de la década de 1940. La carta tampoco sugiere cómo podrían mitigarse los riesgos de extinción, simplemente afirma que debe ser una «prioridad global».

Sin embargo, en un comunicado de prensa relacionado, el CAIS afirma que desea «establecer salvaguardias e instituciones para que los riesgos de la IA no nos tomen por sorpresa» y compara la advertencia sobre la IA con la advertencia hecha por J. Robert Oppenheimer sobre los efectos potenciales de la bomba atómica.

Los expertos en ética de IA no están impresionados

image 14

Esta no es la primera carta abierta sobre los peligros hipotéticos de la IA que podrían acabar con el mundo que hemos visto este año. En marzo, el Future of Life Institute publicó una declaración más detallada firmada por Elon Musk que abogaba por una pausa de seis meses en modelos de IA «más poderosos que el GPT-4», lo que recibió amplia cobertura de prensa, pero también fue recibido con escepticismo por parte de la comunidad de aprendizaje automático.

Los expertos que suelen centrarse en la ética de la IA no están impresionados con esta tendencia emergente de cartas abiertas.

La Dra. Sasha Luccioni, científica de investigación en aprendizaje automático de Hugging Face, compara la nueva carta del CAIS con un truco de magia: «En primer lugar, mencionar el riesgo hipotético existencial de la IA junto con riesgos muy tangibles como pandemias y cambios climáticos, que son muy recientes y visibles para el público, le da más credibilidad», dice ella. «También es una distracción, atrayendo la atención pública hacia una cosa (riesgos futuros) para que no piensen en otra (riesgos actuales tangibles, como sesgos, cuestiones legales y consentimiento).

El escritor y futurista Daniel Jeffries tuiteó: «Los riesgos y daños de la IA ahora son oficialmente un juego de estatus en el que todos se unen para parecer buenos… Entonces, ¿por qué la gente sigue insistiendo en esto? Parece bien. No cuesta nada. Parece bien. Básicamente eso».

La organización detrás de la reciente carta abierta, el Center for AI Safety, es una organización sin fines de lucro con sede en San Francisco, cuyo objetivo es «reducir los riesgos de escala social de la inteligencia artificial» a través de investigación técnica y defensa. Uno de sus cofundadores, Dan Hendrycks, tiene un doctorado en ciencias de la computación de UC Berkeley y trabajó anteriormente como pasante en DeepMind. Otro cofundador, Oliver Zhang, a veces publica sobre seguridad de IA en los foros de LessWrong, una comunidad en línea conocida por su enfoque en los peligros hipotéticos de la IA.

En la comunidad de aprendizaje automático, algunos investigadores de seguridad de IA temen especialmente que una IA superinteligente, que sea exponencialmente más inteligente que los seres humanos, surja pronto, escape del cautiverio y tome el control de la civilización humana o la aniquile por completo. Esta creencia en la llegada de la «AGI» informa el trabajo fundamental de seguridad en OpenAI, posiblemente el principal proveedor de IA generativa en este momento. Esta empresa está respaldada por Microsoft, que está incorporando su tecnología de IA en muchos de sus productos, incluido Windows. Esto significa que estas visiones apocalípticas de un destino sombrío de la IA son profundas en algunos sectores de la industria tecnológica.

Si bien este supuesto peligro es preocupante para algunos, otros argumentan que firmar una carta abierta vaga sobre el tema es una forma fácil para que las personas que pueden ser responsables de otros daños de la IA alivien sus conciencias. «Esto hace que las personas que firman la carta parezcan los héroes de la historia, ya que son ellos quienes están creando esta tecnología», dice Luccioni.

Para dejar claro, críticos como Luccioni y sus colegas no creen que la tecnología de IA sea inofensiva, pero argumentan que priorizar amenazas futuras hipotéticas sirve como una distracción de los daños de la IA que existen actualmente, aquellos que presentan problemas éticos complejos que las grandes corporaciones que venden herramientas de IA preferirían olvidar.

«Ciertas subpoblaciones están siendo perjudicadas activamente en este momento», dice Margaret Mitchell, científica jefa de ética de Hugging Face. «Desde las mujeres en Irán obligadas a usar ropa con la que no están de acuerdo basándose en la vigilancia, hasta las personas encarceladas injustamente basándose en el reconocimiento facial defectuoso, hasta el trato de los uigures en China basándose en la vigilancia y las técnicas de visión por computadora».

Por lo tanto, aunque es posible que algún día una forma avanzada de inteligencia artificial pueda amenazar a la humanidad, estos críticos dicen que no es constructivo ni útil centrarse en un escenario apocalíptico mal definido en 2023. No se puede investigar algo que no es real, observan.

«El riesgo existencial de la IA es una fantasía que no existe actualmente, y no se puede arreglar algo que no existe», tuiteó Jeffries en una línea similar. «Es una completa y total pérdida de tiempo tratar de resolver problemas imaginarios del mañana. Resuelve los problemas de hoy y los problemas del mañana se resolverán cuando lleguemos allí». Con contenido de arstechnica.