Geoffrey Hinton ha sido descrito como el «padrino de la IA». Por eso, cuando esta semana advirtió al mundo de los peligros de la inteligencia artificial, el mundo le escuchó.
Merece la pena leer íntegramente su entrevista con Cade Metz para el New York Times, pero el pasaje clave revela la sorpresa de Hinton ante la velocidad de los últimos avances:
La idea de que estas cosas puedan llegar a ser más inteligentes que las personas es algo que algunos creían… Pero la mayoría pensaba que faltaba mucho para eso. Y yo pensaba que faltaba mucho. Pensaba que faltaban de 30 a 50 años o incluso más. Obviamente, ya no pienso eso.
GEOFFREY HINTON, NYT
Hinton también reiteró su oposición al uso de la IA en el campo de batalla. Sin embargo, ese caballo ya se ha desbocado. Por ejemplo, unos días antes de que el psicólogo cognitivo expresara sus preocupaciones, Palantir Technologies anunció su Plataforma de Inteligencia Artificial para la Defensa, que aplica las últimas capacidades de la IA a la guerra con drones.
Esto incluye el rápido avance de los Big Language Models, que ha llevado a destacados expertos en tecnología a pedir una pausa de seis meses en la experimentación con IA. El argumento es que necesitamos un respiro para domar la tecnología antes de que su evolución nos desborde. En este sentido, la principal prioridad es el problema de la alineación, es decir, garantizar que los sistemas de IA hagan lo que queremos que hagan, idealmente dentro de un marco ético sólido.
Ya he escrito sobre los obstáculos que se oponen a una moratoria de la IA, entre ellos conseguir que los chinos la acepten. Pero hay algo más sobre lo que tenemos que ser honestos, y es que no será un comité de los grandes y los buenos el que haga el trabajo definitivo de alineación. En su lugar, los pioneros serán las fuerzas armadas del mundo y sus proveedores de alta tecnología como Palantir.
No hay que olvidar que el verdadero reto de la alineación no está en relación con los sistemas de IA que ya tenemos, sino desde la perspectiva de la agi, o inteligencia artificial general. La IA de vainilla está limitada en sus capacidades, pero en teoría la agi podría aplicarse -de hecho, podría aplicarse- a cualquier hazaña cognitiva de la que sea capaz un ser humano. Dado este campo de acción mucho más amplio, la tarea de alinear la agi con los intereses humanos es correspondientemente más difícil.
Los sistemas militares de IA son lo más parecido a la agi que existe en la actualidad. Controlan máquinas móviles (drones) que operan en entornos desordenados del mundo real (campos de batalla) y toman decisiones de vida o muerte (matar personas). Estos sistemas deben funcionar dentro de marcos legales y éticos, distinguiendo entre amigos y enemigos y entre combatientes e inocentes. Además, cuanto más avance esta tecnología, más capaz será de tomar estas decisiones independientemente de la intervención humana.
Por supuesto, es posible que pronto veamos sistemas civiles de inteligencia artificial que tomen decisiones igualmente complejas y cargadas de moral: los coches sin conductor, por ejemplo. Sin embargo, los sistemas militares ya están ahí fuera, enzarzados en una lucha por la supremacía.
Así que es en este contexto -en el límite literal de la tecnología- donde se aborda la cuestión de la alineación de la IA. El primer esbozo de la respuesta de la humanidad será militar. Nos guste o no, un complejo militar de IA ya está dando forma al futuro. Lo mejor que podemos esperar es que sea nuestro complejo. Noticia con contenido de Unherd.