D’éminents chercheurs en IA et des leaders de l’industrie ont publié une déclaration publique demandant que les risques extrêmes de l’IA soient pris en compte aussi sérieusement qu’une guerre nucléaire.
« L’atténuation du risque d’extinction lié à l’IA devrait être une priorité mondiale au même titre que d’autres risques sociétaux tels que les pandémies et les guerres nucléaires », souligne une déclaration publiée aujourd’hui par le Centre pour la sécurité de l’IA.
Cette déclaration a été signée par les PDG de grandes entreprises d’IA, dont OpenAI, Google DeepMind et Anthropic, ainsi que par d’éminents scientifiques spécialisés dans l’IA aux États-Unis et en Chine.
« Une coalition historique
« Il s’agit d’une coalition historique d’experts en IA, de philosophes, d’éthiciens, de juristes, d’économistes, de physiciens, de politologues, de spécialistes des pandémies, de scientifiques nucléaires et de climatologues, qui considèrent le risque d’extinction lié aux futurs systèmes d’IA avancés comme l’un des problèmes les plus importants au monde », indique un communiqué du centre.
Les effets négatifs de l’IA se font déjà sentir et il convient d’y remédier. Toutefois, il est également nécessaire d’anticiper les risques futurs des systèmes d’IA avancés.
« Parler de la façon dont l’IA pourrait conduire à la fin de l’humanité peut sembler relever de la science-fiction », a déclaré Charlotte Siegmann, cofondatrice de KIRA, un groupe de réflexion qui étudie les risques de l’IA. « Mais il y a de nombreuses raisons de s’inquiéter : les abus, la concurrence, l’ignorance, la négligence et le manque de contrôle des systèmes actuels et futurs. C’est ce que souligne la lettre ouverte »
Yann LeCun et Meta sont absents de la liste
Parmi les principaux signataires de la déclaration, on peut citer
- Les PDG des principaux laboratoires d’IA : Sam Altman, Demis Hassabis et Dario Amodei
- Les auteurs du manuel standard sur l’intelligence artificielle (Stuart Russell et Peter Norvig)
- Deux auteurs du manuel standard sur l’apprentissage profond (Ian Goodfellow et Yoshua Bengio)
- Un auteur du manuel standard sur l’apprentissage par renforcement (Andrew Barto)
- Trois lauréats du prix Turing (Geoffrey Hinton, Yoshua Bengio et Martin Hellman)
- Des dirigeants de Microsoft, OpenAI, Google, Google DeepMind et Anthropic – Meta n’a pas signé
- Les scientifiques à l’origine de célèbres systèmes d’IA tels qu’AlphaGo et toutes les versions de GPT (David Silver, Ilya Sutskever)
- Les deux informaticiens les plus cités (Hinton et Bengio) et l’universitaire le plus cité en matière de sécurité informatique et de protection de la vie privée (Dawn Song)
- Les professeurs d’IA des universités chinoises
- Des professeurs qui étudient les pandémies, le changement climatique et la technologie nucléaire
- Parmi les autres signataires figurent Marian Rogers Croak (inventeur de la VoIP – Voice over Internet Protocol), Kersti Kaljulaid (ancien président de la République d’Estonie) et d’autres encore.
Un lauréat du prix Turing manque à l’appel : Yann LeCun, responsable de l’IA chez Meta, n’a pas signé la lettre, et Meta elle-même est absente de la liste. L’entreprise mène actuellement une politique de code source ouvert et est à l’origine des puissants modèles LLaMA, par exemple. Gary Marcus, qui a récemment témoigné devant le Sénat américain en faveur d’une plus grande réglementation de la recherche et des entreprises dans le domaine de l’IA, n’est pas non plus présent.
L’un des signataires est Connor Leahy, PDG de Conjecture, une société qui se consacre à la recherche appliquée et évolutive sur l’alignement. Dans un épisode récent du programme Machine Learning Street Talk, il explique en détail pourquoi l’IA représente un risque existentiel et comment nous pouvons le gérer.