Geoffrey Hinton a été décrit comme le « parrain de l’intelligence artificielle ». Aussi, lorsqu’il a mis en garde le monde contre les dangers de l’intelligence artificielle cette semaine, le monde l’a écouté.

L’entretien qu’il a accordé à Cade Metz pour le New York Times mérite d’être lu dans son intégralité, mais le passage clé révèle la surprise de M. Hinton face à la rapidité des évolutions récentes :

L’idée que ces objets puissent devenir plus intelligents que les gens – certains y croyaient… Mais la plupart des gens pensaient que c’était loin d’être le cas. Et je pensais que c’était loin. Je pensais que c’était dans 30 ou 50 ans, voire plus. Évidemment, je ne le pense plus aujourd’hui.

GEOFFREY HINTON, NYT

M. Hinton a également réitéré son opposition à l’utilisation de l’IA sur le champ de bataille. Toutefois, ce cheval s’est déjà emballé. Par exemple, quelques jours avant que le psychologue cognitif n’exprime ses inquiétudes, Palantir Technologies a annoncé sa plateforme d’intelligence artificielle pour la défense, qui applique les dernières capacités de l’IA à la guerre des drones.

Il s’agit notamment de l’avancée rapide des grands modèles de langage, qui a conduit d’éminents experts en technologie à demander une pause de six mois dans l’expérimentation de l’IA. L’argument est que nous avons besoin d’un répit pour apprivoiser la technologie avant que son évolution ne nous submerge. En ce sens, la principale priorité est le problème de l’alignement, c’est-à-dire veiller à ce que les systèmes d’IA fassent ce que nous voulons qu’ils fassent, idéalement dans un cadre éthique solide.

J’ai déjà écrit sur les obstacles à un moratoire sur l’IA, notamment pour obtenir l’accord des Chinois. Mais il y a un autre point sur lequel nous devons être honnêtes : ce n’est pas un comité composé de grands et de bons esprits qui fera le travail définitif d’alignement. Les pionniers seront plutôt les forces armées du monde et leurs fournisseurs de haute technologie comme Palantir.

N’oublions pas que le véritable défi de l’alignement ne se situe pas par rapport aux systèmes d’IA dont nous disposons déjà, mais dans la perspective de l’agi, ou intelligence artificielle générale. L’IA de Vanille est limitée dans ses capacités, mais en théorie, l’agi pourrait être appliquée – en fait, pourrait s’appliquer – à n’importe quel exploit cognitif dont un être humain est capable. Compte tenu de ce champ d’action beaucoup plus large, il est d’autant plus difficile d’aligner l’IA sur les intérêts humains.

Les systèmes d’IA militaires sont les plus proches de l’agi à l’heure actuelle. Ils contrôlent des machines mobiles (c’est-à-dire des drones), qui opèrent dans des environnements désordonnés (c’est-à-dire des champs de bataille) et qui prennent des décisions de vie ou de mort (c’est-à-dire tuer des gens). Ces systèmes doivent fonctionner dans des cadres juridiques et éthiques, en distinguant l’ami de l’ennemi et le combattant de l’innocent. En outre, plus cette technologie sera avancée, plus elle sera capable de prendre ces décisions indépendamment de l’intervention humaine.

Bien sûr, nous pourrions bientôt voir des systèmes d’IA civils prendre des décisions tout aussi complexes et moralement chargées – des voitures sans conducteur, par exemple. Cependant, les systèmes militaires sont déjà là, engagés dans une lutte pour la suprématie.

C’est donc dans ce contexte – à la limite littérale de la technologie – que la question de l’alignement de l’IA est abordée. La première ébauche de réponse de l’humanité sera militaire. Que nous le voulions ou non, un complexe militaire d’IA est déjà en train de façonner l’avenir. Le mieux que nous puissions espérer, c’est qu’il s’agisse de notre complexe. Actualités avec le contenu de Unherd.