Recientemente han resurgido las afirmaciones de que la IA alcanza la consciencia. Pero, ¿qué hace falta para que un sistema artificial sea consciente de sí mismo?
En junio de 2022, Blake Lemoine, ingeniero de Google, saltó a los titulares al afirmar que el chatbot LaMDA de la compañía había alcanzado la sensibilidad. El software tenía la capacidad de conversación de un niño precoz de siete años, dijo Lemoine, y debemos suponer que poseía una conciencia similar del mundo.
LaMDA, que más tarde se hizo público con el nombre de Bard, funciona con un «gran modelo lingüístico» (LLM) del tipo que también constituye el motor del bot ChatGPT de OpenAI. Otras grandes empresas tecnológicas se apresuran a implantar tecnologías similares.
Cientos de millones de personas ya han tenido la oportunidad de jugar con los LLM, pero pocos parecen creer que los conocen. En su lugar, en la poética frase de la lingüista y científica de datos Emily Bender, son «loros estocásticos», que parlotean convincentemente sin entender. Pero, ¿qué pasará con la próxima generación de sistemas de inteligencia artificial (IA)?
Nuestro equipo de filósofos, neurocientíficos e informáticos examinó las teorías científicas actuales sobre el funcionamiento de la conciencia humana para elaborar una lista de propiedades computacionales básicas que probablemente debería poseer cualquier sistema hipotéticamente consciente. En nuestra opinión, ningún sistema actual se acerca ni de lejos al listón de la conciencia, pero al mismo tiempo no hay ninguna razón obvia por la que los sistemas futuros no puedan llegar a ser verdaderamente conscientes.
Encontrar indicadores
Desde que el pionero de la informática Alan Turing propuso su «Juego de imitación» en 1950, la capacidad de hacerse pasar por un ser humano en una conversación se ha tomado a menudo como un marcador fiable de la consciencia. Esto suele deberse a que la tarea parece tan difícil que debe requerir consciencia.
Sin embargo, como en el caso de la derrota del gran maestro Gary Kasparov por el ordenador de ajedrez Deep Blue en 1997, la fluidez conversacional de los LLM puede que sólo mueva los postes de la portería. ¿Existe algún principio para abordar la cuestión de la conciencia de la IA que no dependa de nuestras intuiciones sobre lo que es difícil o especial en la cognición humana?
Nuestro reciente Libro Blanco se propone precisamente eso. Comparamos las teorías científicas actuales sobre lo que hace conscientes a los humanos para elaborar una lista de «propiedades indicadoras» que podrían aplicarse a los sistemas de IA.
No creemos que los sistemas que poseen las propiedades indicadoras sean definitivamente conscientes, pero cuantos más indicadores, más en serio deberíamos tomarnos las afirmaciones sobre la consciencia de la IA.
Los procesos computacionales de la conciencia
¿Qué tipo de indicadores buscamos? Evitamos los criterios de comportamiento obvios, como la capacidad de mantener conversaciones con otras personas, porque tienden a centrarse en el ser humano y son fáciles de falsear.
En su lugar, nos fijamos en las teorías de los procesos computacionales que sustentan la conciencia en el cerebro humano. Estas teorías pueden indicarnos el tipo de procesamiento de la información necesario para sustentar la experiencia subjetiva.
Las «teorías del espacio de trabajo global», por ejemplo, postulan que la conciencia surge de la presencia de un cuello de botella de capacidad limitada que reúne información de todas las partes del cerebro y selecciona la información para ponerla a disposición global. Las «teorías del procesamiento recurrente» hacen hincapié en el papel de la retroalimentación de los procesos posteriores a los anteriores.
Cada teoría, a su vez, sugiere indicadores más específicos. Nuestra lista final contiene 14 indicadores, cada uno de los cuales se centra en un aspecto del funcionamiento de los sistemas más que en su comportamiento.
No hay motivos para pensar que los sistemas actuales sean conscientes
¿Cuál es la situación de las tecnologías actuales? Nuestro análisis sugiere que no hay motivos para pensar que los sistemas de IA actuales sean conscientes.
Algunos cumplen algunos de los indicadores. Los sistemas que utilizan la arquitectura de transformadores, un tipo de modelo de aprendizaje automático detrás de ChatGPT y herramientas similares, cumplen tres de los indicadores de «espacio de trabajo global», pero carecen de la capacidad crucial para la retransmisión global. Tampoco cumplen la mayoría de los demás indicadores.
Así que, a pesar de las impresionantes capacidades conversacionales de ChatGPT, probablemente no haya nadie en casa dentro. Otras arquitecturas también cumplen, como mucho, un puñado de criterios.
La mayoría de las arquitecturas actuales sólo cumplen, como mucho, algunos de los indicadores. Sin embargo, para la mayoría de los indicadores, hay al menos una arquitectura actual que lo cumple.
Esto sugiere que, en principio, no existen barreras técnicas evidentes para construir sistemas de IA que cumplan la mayoría o la totalidad de los indicadores.
Probablemente sea cuestión de cuándo se construya un sistema de este tipo, y no de si se construirá. Por supuesto, cuando se construya, seguirán existiendo muchos interrogantes.
Más allá de la conciencia humana
Las teorías científicas que analizamos (¡y los autores del artículo!) no siempre coinciden entre sí. Para reconocer este hecho utilizamos una lista de indicadores en lugar de criterios estrictos. Esta puede ser una metodología poderosa ante la incertidumbre científica.
Nos inspiramos en debates similares sobre la conciencia animal. La mayoría de nosotros pensamos que al menos algunos animales no humanos son conscientes, a pesar de que no pueden hablarnos de lo que sienten.
Un informe de 2021 de la London School of Economics en el que se sostenía que los cefalópodos, como los pulpos, probablemente sienten dolor, fue decisivo para cambiar la política de ética animal del Reino Unido. Centrarse en las características estructurales tiene la sorprendente consecuencia de que incluso algunos animales simples, como los insectos, pueden poseer una forma mínima de conciencia.
Nuestro informe no hace recomendaciones sobre qué hacer con la IA consciente. Esta cuestión se hará más urgente a medida que los sistemas de IA se vuelvan inevitablemente más potentes y se generalicen.
Nuestros indicadores no serán la última palabra, pero esperamos que se conviertan en un primer paso para abordar esta complicada cuestión con una base científica.