Mardi, le Centre for AI Safety (CAIS) a publié une déclaration d’ une seule phrase signée par les dirigeants d’OpenAI et de DeepMind, lauréats du prix Turing, et d’autres chercheurs en IA, avertissant que le travail de leur vie pourrait potentiellement entraîner l’extinction de l’humanité.
La brève déclaration, qui, selon l’ACSI, vise à ouvrir le débat sur « un large éventail de risques importants et urgents liés à l’IA », se lit comme suit : « L’atténuation du risque d’extinction causé par l’IA devrait être une priorité mondiale, au même titre que d’autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires ».
Parmi les principaux signataires de la déclaration figurent les lauréats du prix Turing Geoffery Hinton et Yoshua Bengio, le PDG d’OpenAI Sam Altman, le scientifique en chef d’OpenAI Ilya Sutskever, la directrice technique d’OpenAI Mira Murati, le PDG de DeepMind Demis Hassabis, le PDG d’Anthropic Dario Amodei et des professeurs de l’université de Berkeley, de Stanford et du MIT.
Cette déclaration intervient alors que M. Altman parcourt le monde pour organiser des réunions avec des chefs d’État sur l’IA et ses dangers potentiels. Au début du mois de mai, M. Altman a plaidé en faveur d’une réglementation de son secteur devant le Sénat américain.
Compte tenu de sa brièveté, la lettre ouverte de l’ACSI est remarquable par ce qu’elle ne contient pas. Par exemple, elle ne précise pas exactement ce qu’elle entend par « IA », étant donné que le terme pourrait s’appliquer à n’importe quoi, des mouvements de fantômes dans Pac-Man aux modèles de langage capables d’écrire des sonnets dans le style des gangsters astucieux des années 1940. La lettre ne suggère pas non plus comment les risques d’extinction pourraient être atténués, se contentant de dire qu’il devrait s’agir d’une « priorité mondiale ».
Toutefois, dans un communiqué de presse connexe, l’ACSI déclare vouloir « établir des garanties et des institutions pour que les risques de l’IA ne nous prennent pas au dépourvu » et compare l’avertissement concernant l’IA à celui lancé par J. Robert Oppenheimer au sujet des effets potentiels de la bombe atomique.
Les éthiciens de l’IA ne sont pas impressionnés
Ce n’est pas la première lettre ouverte sur les dangers hypothétiques de l’IA qui pourraient mettre fin au monde que nous voyons cette année. En mars, le Future of Life Institute a publié une déclaration plus détaillée, signée par Elon Musk, qui préconisait une pause de six mois pour les modèles d’IA « plus puissants que le GPT-4 », qui a été largement couverte par la presse mais a également été accueillie avec scepticisme par la communauté de l’apprentissage automatique.
Les experts qui s’intéressent souvent à l’éthique de l’IA ne sont pas impressionnés par cette nouvelle tendance des lettres ouvertes.
Sasha Luccioni, chercheuse en apprentissage automatique chez Hugging Face, compare la nouvelle lettre de l’ACSI à un tour de magie : « Tout d’abord, le fait de mentionner le risque existentiel hypothétique de l’IA à côté de risques très tangibles comme les pandémies et le changement climatique, qui sont très récents et visibles pour le public, lui donne plus de crédibilité », dit-elle. « C’est aussi une distraction, qui attire l’attention du public sur une chose (les risques futurs) afin qu’il ne pense pas à une autre (les risques actuels tangibles tels que la partialité, les questions juridiques et le consentement).
L’écrivain et futurologue Daniel Jeffries a tweeté: « Les risques et les préjudices de l’IA sont désormais officiellement un jeu de statut où tout le monde se réunit pour faire bonne figure… Alors pourquoi les gens continuent-ils à en parler ? Ça a l’air bien. Cela ne coûte rien. Ça a l’air bien. C’est tout ce qu’il y a à faire »
L’organisation à l’origine de la récente lettre ouverte, le Center for AI Safety, est une organisation à but non lucratif basée à San Francisco dont l’objectif est de « réduire les risques de l’intelligence artificielle à l’échelle de la société » par le biais de la recherche technique et de la sensibilisation. L’un de ses cofondateurs, Dan Hendrycks, est titulaire d’un doctorat en informatique de l’université de Berkeley et a précédemment travaillé comme stagiaire chez DeepMind. Un autre cofondateur, Oliver Zhang, publie parfois des articles sur la sécurité de l’IA sur les forums LessWrong, une communauté en ligne connue pour son intérêt pour les dangers hypothétiques de l’IA.
Dans la communauté de l’apprentissage automatique, certains chercheurs en sécurité de l’IA craignent en particulier qu’une IA superintelligente, c’est-à-dire exponentiellement plus intelligente que les humains, émerge bientôt, s’échappe de sa captivité et prenne le contrôle de la civilisation humaine ou l’anéantisse complètement. Cette croyance en l’arrivée de l‘ »AGI » est à la base du travail de sécurité fondamental d’OpenAI, sans doute le principal fournisseur d’IA générative à l’heure actuelle. Cette société est soutenue par Microsoft, qui incorpore sa technologie d’IA dans un grand nombre de ses produits, y compris Windows. Cela signifie que ces visions apocalyptiques d’un destin sombre pour l’IA sont profondément ancrées dans certains secteurs de l’industrie technologique.
Si ce danger supposé en inquiète certains, d’autres estiment que la signature d’une vague lettre ouverte sur le sujet est un moyen facile pour les personnes susceptibles d’être responsables de nouveaux dommages causés par l’IA de se donner bonne conscience. « Cela donne l’impression que les signataires de la lettre sont les héros de l’histoire, puisque ce sont eux qui ont créé cette technologie », explique M. Luccioni.
Pour être clair, les critiques comme Luccioni et ses collègues ne pensent pas que la technologie de l’IA soit inoffensive, mais ils affirment que le fait de donner la priorité à d’hypothétiques menaces futures sert à détourner l’attention des préjudices de l’IA qui existent aujourd’hui – ceux qui posent des problèmes éthiques complexes que les grandes entreprises qui vendent des outils d’IA préfèreraient oublier.
« Certaines sous-populations sont activement lésées à l’heure actuelle », déclare Margaret Mitchell, responsable de la recherche en éthique chez Hugging Face : « Qu’il s’agisse de femmes en Iran contraintes de porter des vêtements auxquels elles ne consentent pas en raison de la surveillance, de personnes injustement incarcérées en raison d’une reconnaissance faciale erronée, ou du traitement des Ouïghours en Chine fondé sur des techniques de surveillance et de vision par ordinateur »
S’il est possible qu’un jour une forme avancée d’intelligence artificielle menace l’humanité, ces critiques estiment qu’il n’est ni constructif ni utile de se concentrer sur un scénario catastrophe mal défini en 2023. Il n’est pas possible de faire des recherches sur quelque chose qui n’existe pas, notent-ils.
« Le risque existentiel de l’IA est un fantasme qui n’existe pas actuellement, et on ne peut pas réparer quelque chose qui n’existe pas », a tweeté M. Jeffries dans le même sens. « C’est une perte de temps totale que d’essayer de résoudre les problèmes imaginaires de demain. Résolvez les problèmes d’aujourd’hui, et les problèmes de demain seront résolus quand nous y arriverons. » Avec le contenu d’arstechnica.