La idea de que la inteligencia artificial podría superar a la humanidad lleva décadas debatiéndose, y programas como ChatGPT no han hecho más que renovar estas preocupaciones.

¿Qué probabilidades hay de que seamos capaces de controlar una superinteligencia computacional de alto nivel? Los científicos de 2021 han hecho los cálculos. ¿La respuesta? Casi seguro que no.

El problema es que controlar una superinteligencia mucho más allá de la comprensión humana requeriría una simulación de esa superinteligencia que pudiéramos analizar. Pero si no podemos comprenderla, es imposible crear tal simulación.

Reglas como «no dañar a los humanos» no pueden establecerse si no comprendemos los tipos de escenarios que podría crear una IA, sugieren los autores del artículo. Una vez que un sistema computacional funciona a un nivel que supera la capacidad de nuestros programadores, ya no podemos imponer límites.

«Una superinteligencia presenta un problema fundamentalmente distinto de los que se suelen estudiar bajo el lema de la ‘ética del robot'», escribieron los investigadores en 2021.

«Esto se debe a que una superinteligencia es multifacética y, por lo tanto, potencialmente capaz de movilizar una diversidad de recursos para lograr objetivos que son potencialmente incomprensibles para los humanos, y mucho menos controlables».

Parte del razonamiento del equipo se basa en el problema de la interrupción propuesto por Alan Turing en 1936. El problema se centra en si un programa informático llegará a una conclusión y a una respuesta (y por tanto se interrumpirá), o si simplemente se quedará en un bucle infinito tratando de encontrar una respuesta.

Como demostró Turing mediante algunos cálculos inteligentes, aunque podemos saber esto para algunos programas específicos, es lógicamente imposible encontrar una manera de saberlo para todos los programas potenciales que se pueden escribir.

Esto nos lleva de nuevo a la IA, que en un estado superinteligente podría almacenar simultáneamente todos los programas informáticos posibles en su memoria.

Cualquier programa escrito para evitar que la IA dañe a los humanos y destruya el mundo, por ejemplo, puede o no llegar a una conclusión (e interrumpir) – es matemáticamente imposible estar absolutamente seguro de cualquier manera, lo que significa que no es contable.

«En la práctica, esto hace que el algoritmo de contención sea inutilizable», afirma el informático Iyad Rahwan, del Instituto Max Planck para el Desarrollo Humano de Alemania.

La alternativa a enseñar ética a la IA y decirle que no destruya el mundo -algo que ningún algoritmo puede hacer con absoluta certeza, según los investigadores- es limitar las capacidades de la superinteligencia. Podríamos restringirle el acceso a partes de Internet o a determinadas redes, por ejemplo.

El estudio de 2021 también rechaza esta idea, sugiriendo que esto limitaría el alcance de la inteligencia artificial, con el argumento de que si no vamos a utilizarla para resolver problemas fuera del alcance de los humanos, ¿para qué crearla?

Si vamos a avanzar con la inteligencia artificial, es posible que ni siquiera sepamos cuándo llegará una superinteligencia fuera de nuestro control, debido a su incomprensibilidad. Esto significa que tenemos que empezar a hacernos algunas preguntas serias sobre las direcciones hacia las que nos dirigimos.

De hecho, este año, gigantes de la tecnología como Elon Musk y el cofundador de Apple Steve Wozniak firmaron una carta abierta en la que pedían a la humanidad que detuviera el trabajo en inteligencia artificial durante al menos 6 meses para poder explorar su seguridad.

«Los sistemas de IA con una inteligencia comparable a la humana pueden plantear profundos riesgos para la sociedad y la humanidad», decía la carta abierta titulada «Pausa a los experimentos gigantes de IA».

«Los sistemas de IA potentes sólo deben desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables», añadía.

La investigación se publicó en la revista Journal of Artificial Intelligence Research en enero de 2021.