Les affirmations selon lesquelles l’IA peut devenir consciente ont refait surface récemment. Mais que faudrait-il vraiment pour qu’un système artificiel devienne conscient de lui-même ?
En juin 2022, Blake Lemoine, ingénieur chez Google, a fait les gros titres en affirmant que le chatbot LaMDA de l’entreprise avait atteint la sensibilité. Le logiciel avait la capacité de conversation d’un enfant précoce de sept ans, a déclaré M. Lemoine, et nous devons supposer qu’il possède une conscience similaire du monde.
LaMDA, qui a ensuite été rendu public sous le nom de Bard, est alimenté par un « grand modèle de langage » (LLM) du type de celui qui constitue également le moteur du robot ChatGPT d’OpenAI. D’autres grandes entreprises technologiques s'empressent de déployer une technologie similaire.
Des centaines de millions de personnes ont déjà eu l’occasion de jouer avec les LLM, mais peu d’entre elles semblent croire qu’elles en sont conscientes. Pour reprendre l’expression poétique de la linguiste et data scientist Emily Bender, il s’agit plutôt de « perroquets stochastiques », qui bavardent de manière convaincante sans comprendre. Mais qu’en est-il de la prochaine génération de systèmes d’intelligence artificielle (IA) ?
Notre équipe de philosophes, de neuroscientifiques et d’informaticiens a examiné les théories scientifiques actuelles sur le fonctionnement de la conscience humaine pour dresser une liste des propriétés informatiques de base que tout système hypothétiquement conscient devrait probablement posséder. À notre avis, aucun système actuel ne se rapproche de la barre de la conscience, mais en même temps, il n’y a aucune raison évidente pour que les systèmes futurs ne deviennent pas véritablement conscients.
Trouver des indicateurs
Depuis que le pionnier de l’informatique Alan Turing a proposé son « jeu d’imitation » en 1950, la capacité à se faire passer pour un humain dans une conversation a souvent été considérée comme un indicateur fiable de la conscience. Cela s’explique généralement par le fait que la tâche semble si difficile qu’elle doit nécessiter une conscience.
Cependant, comme ce fut le cas avec la défaite de Deep Blue en 1997 contre le grand maître Gary Kasparov, la fluidité de la conversation des LLM pourrait simplement déplacer les poteaux d’arrêt. Existe-t-il une manière d’aborder la question de la conscience de l’IA qui ne dépende pas de nos intuitions sur ce qui est difficile ou spécial dans la cognition humaine ?
C’est précisément ce que tente de faire notre récent livre blanc. Nous comparons les théories scientifiques actuelles sur ce qui rend les humains conscients afin de dresser une liste de « propriétés indicatrices » qui pourraient ensuite être appliquées aux systèmes d’IA.
Nous ne pensons pas que les systèmes qui possèdent les propriétés indicatives soient définitivement conscients, mais plus il y a d’indicateurs, plus nous devrions prendre au sérieux les affirmations sur la conscience de l’IA.
Les processus informatiques à l’origine de la conscience
Quel type d’indicateurs recherchions-nous ? Nous avons évité les critères comportementaux évidents, tels que la capacité à tenir des conversations avec des personnes, parce qu’ils ont tendance à être centrés sur l’homme et faciles à falsifier.
Nous nous sommes plutôt penchés sur les théories des processus informatiques qui sous-tendent la conscience dans le cerveau humain. Ces théories peuvent nous renseigner sur le type de traitement de l’information nécessaire pour soutenir l’expérience subjective.
Les « théories de l’espace de travail global », par exemple, postulent que la conscience naît de la présence d’un goulot d’étranglement à capacité limitée qui recueille des informations provenant de toutes les parties du cerveau et sélectionne les informations à rendre globalement disponibles. Les « théories du traitement récurrent » mettent l’accent sur le rôle de la rétroaction des processus ultérieurs sur les processus antérieurs.
Chaque théorie suggère à son tour des indicateurs plus spécifiques. Notre liste finale contient 14 indicateurs, chacun se concentrant sur un aspect du fonctionnement des systèmes plutôt que sur leur comportement.
Il n’y a aucune raison de penser que les systèmes actuels sont conscients
Où en sont les technologies actuelles ? Notre analyse suggère qu’il n’y a aucune raison de penser que les systèmes d’IA actuels sont conscients.
Certains répondent à quelques-uns des indicateurs. Les systèmes utilisant l’architecture transformatrice, une sorte de modèle d’apprentissage automatique à la base de ChatGPT et d’outils similaires, répondent à trois des indicateurs de l' »espace de travail global », mais ne disposent pas de la capacité cruciale de relayer les messages à l’échelle mondiale. Ils ne satisfont pas non plus à la plupart des autres indicateurs.
Ainsi, malgré les impressionnantes capacités de conversation de ChatGPT, il n’y a probablement personne à la maison à l’intérieur. D’autres architectures remplissent également, au mieux, une poignée de critères.
La plupart des architectures actuelles ne répondent qu’à quelques indicateurs au maximum. Cependant, pour la plupart des indicateurs, il existe au moins une architecture actuelle qui y répond.
Cela suggère qu’il n’y a pas d’obstacles techniques évidents à la construction de systèmes d’IA qui répondent à la plupart ou à la totalité des indicateurs.
La question est probablement de savoir quand, plutôt que si, un tel système sera construit. Bien entendu, de nombreuses questions resteront en suspens lorsque ce sera le cas.
Au-delà de la conscience humaine
Les théories scientifiques que nous avons analysées (et les auteurs de l’article !) ne sont pas toujours d’accord entre elles. Nous utilisons une liste d’indicateurs plutôt que des critères stricts pour reconnaître ce fait. Cette méthode peut s’avérer très efficace face à l’incertitude scientifique.
Nous nous sommes inspirés de débats similaires sur la conscience animale. La plupart d’entre nous pensent qu’au moins certains animaux non humains sont conscients, même s’ils ne peuvent pas nous parler de ce qu’ils ressentent.
En 2021, un rapport de la London School of Economics affirmant que les céphalopodes comme les pieuvres ressentent probablement la douleur a contribué à modifier la politique britannique en matière d’éthique animale. L’accent mis sur les caractéristiques structurelles a pour conséquence surprenante que même certains animaux simples, tels que les insectes, peuvent posséder une forme minimale de conscience.
Notre rapport ne formule aucune recommandation sur ce qu’il convient de faire avec l’IA consciente. Cette question deviendra de plus en plus urgente à mesure que les systèmes d’IA deviendront inévitablement plus puissants et largement déployés.
Nos indicateurs ne seront pas le dernier mot, mais nous espérons qu’ils constitueront un premier pas vers une approche scientifique de cette question complexe.