Les avertissements de Big Tech sur l’apocalypse de l’IA nous détournent des années de dommages réels causés par ses produits.

Mardi matin, les spécialistes du marketing de l’intelligence artificielle ont une nouvelle fois mis en garde contre le pouvoir existentiel de leurs produits. Des centaines de responsables de l’IA, de chercheurs et d’autres personnalités techniques et commerciales, dont Sam Altman, PDG d’OpenAI, et Bill Gates, ont signé unedéclaration d’ une phrase rédigée par le Centre pour la sécurité de l’IA, déclarant que « l’atténuation du risque d’extinction par l’IA devrait être une priorité mondiale, au même titre que d’autres risques à l’échelle de la société, tels que les pandémies et les guerres nucléaires ».

Ces 22 mots ont été publiés à l’issue d’une tournée de plusieurs semaines au cours de laquelle des dirigeants d’OpenAI, de Microsoft, de Google et d’autres entreprises technologiques ont plaidé en faveur d’une réglementation limitée de l’IA. Ils se sont exprimés devant le Congrès, dans l’Union européenne et ailleurs sur la nécessité d’une collaboration entre l’industrie et les gouvernements pour limiter les effets néfastes de leurs produits, alors même que leurs entreprises continuent d’investir des milliards dans la technologie. Plusieurs éminents chercheurs et détracteurs de l’IA m’ont fait part de leur scepticisme face à cette rhétorique et m’ont dit que les réglementations proposées par les grandes entreprises technologiques semblaient édulcorées et intéressées.

La Silicon Valley a montré peu de respect pour des années de recherche démontrant que les préjudices de l’IA ne sont pas spéculatifs mais concrets ; ce n’est que maintenant, après le lancement du ChatGPT d’OpenAI et une cascade de financements, qu’il semble y avoir un intérêt à paraître se soucier de la sécurité. « Cela ressemble à des relations publiques très sophistiquées de la part d’une entreprise qui avance à grande vitesse dans la construction de la technologie même que son équipe signale comme présentant des risques pour l’humanité », a déclaré Albert Fox Cahn, directeur exécutif du Surveillance Technology Oversight Project, une organisation à but non lucratif qui milite contre la surveillance de masse.

L’hypothèse non déclarée qui sous-tend la crainte de l' »extinction » est que l’IA est destinée à devenir terrifiante, transformant le travail de ces entreprises en une sorte d’eschatologie. « Emily Bender, linguiste informaticienne à l’université de Washington, a déclaré : « Le produit devient plus puissant, au point d’anéantir l’humanité ». Cette hypothèse offre une propagande tacite : les PDG, tels des demi-dieux, utilisent une technologie aussi transformatrice que le feu, l’électricité, la fission nucléaire ou un virus qui provoque des pandémies. Il serait stupide de ne pas investir. C’est aussi une posture qui vise à les immuniser contre les critiques en copiant la communication de crise des cigarettiers, des magnats du pétrole et de Facebook : hé, ne nous en voulez pas, nous vous supplions de réglementer notre produit.

Cependant, l’apocalypse supposée de l’IA reste de la science-fiction. « Une histoire fantastique et émoustillante est utilisée pour détourner l’attention du problème que la réglementation doit résoudre », a déclaré Meredith Whittaker, cofondatrice de l’AI Now Institute et présidente de Signal. Des programmes comme le GPT-4 ont été améliorés par rapport à leurs versions précédentes, mais seulement de manière progressive. L’IA pourrait transformer des aspects importants de la vie quotidienne – peut-être faire progresser la médecine, remplacer des emplois – mais il n’y a aucune raison de croire que les offres de Microsoft et de Google conduiraient à la fin de la civilisation. « Il ne s’agit que de données et de paramètres supplémentaires ; ce qui ne se produit pas, ce sont des changements fondamentaux dans la manière dont ces systèmes fonctionnent », a déclaré M. Whittaker.

Deux semaines avant de signer l’avertissement sur l’extinction de l’IA, M. Altman, qui a comparé son entreprise au projet Manhattan et lui-même à Robert Oppenheimer, a présenté au Congrès une version plus modérée de la prophétie de la déclaration d’extinction : les types de produits d’IA développés par son entreprise s’amélioreront rapidement et seront donc potentiellement dangereux. Témoignant devant un groupe d’experts du Sénat, il a déclaré que « l’intervention réglementaire des gouvernements sera essentielle pour atténuer les risques liés à des modèles de plus en plus puissants ». M. Altman et les sénateurs ont tous deux considéré cette augmentation de puissance comme inévitable et les risques associés comme des « conséquences potentielles » qui ne se sont pas encore concrétisées.

Toutefois, de nombreux experts avec lesquels je me suis entretenu se sont montrés sceptiques quant à l’étendue des progrès de l’IA par rapport à ses capacités actuelles et ont affirmé catégoriquement qu’elle n’avait pas besoin de progresser pour nuire à l’homme – en fait, de nombreuses applications le font déjà. Le désaccord ne porte donc pas sur la question de savoir si l’IA est nuisible, mais sur celle de savoir quel dommage est le plus préoccupant – un futur cataclysme de l’IA, que seuls ses architectes mettent en garde et prétendent pouvoir exclusivement prévenir, ou une violence plus quotidienne que les gouvernements, les chercheurs et le public combattent et contrent depuis longtemps – ainsi que sur la question de savoir qui est en danger et comment prévenir au mieux ce dommage.

Le fait que de nombreux produits d’IA existants soient discriminatoires en est un exemple : reconnaissance faciale raciste et incapacité à reconnaître correctement l’identité de genre, diagnostics médicaux biaisés et algorithmes de recrutement sexistes sont parmi les exemples les plus connus. M. Cahn affirme que l’IA devrait être considérée comme partiale jusqu’à preuve du contraire. En outre, les modèles avancés sont souvent accusés de violation des droits d’auteur en ce qui concerne les ensembles de données et de violation du droit du travail en ce qui concerne leur production. Les médias synthétiques inondent l’internet d’escroqueries financières et de pornographie non consensuelle. Le « récit de science-fiction » sur l’IA, présenté dans la déclaration d’extinction et ailleurs, « nous détourne des domaines réalisables sur lesquels nous pourrions commencer à travailler aujourd’hui », a déclaré Deborah Raji, membre de Mozilla qui étudie les préjugés algorithmiques. Et si les préjudices algorithmiques affectent aujourd’hui principalement les communautés marginalisées et sont donc plus faciles à ignorer, un supposé effondrement de la civilisation nuirait également aux privilégiés. « Lorsque Sam Altman dit quelque chose, même si c’est très éloigné de la manière dont ces préjudices se produisent réellement, les gens écoutent », a déclaré M. Raji.

Même si les gens écoutent, les mots peuvent sembler vides. Quelques jours seulement après son témoignage au Sénat, M. Altman a déclaré à des journalistes à Londres que si les nouvelles réglementations de l’UE en matière d’IA étaient trop strictes, son entreprise pourrait « cesser ses activités » sur le continent. Ce changement de position apparent a provoqué une réaction brutale, et M. Altman a ensuite tweeté qu’OpenAI n’avait « pas l’intention de quitter » l’Europe. « Il semble que certaines réglementations très sensées menacent le modèle commercial », a déclaré Emily Bender, de l’université de Washington. Dans une réponse électronique à une demande de commentaire sur les déclarations de M. Altman et la position de son entreprise sur la réglementation, un porte-parole d’OpenAI a écrit : « La réalisation de notre mission exige que nous nous efforcions d’atténuer les risques actuels et à long terme » et que l’entreprise « collabore avec les décideurs politiques, les chercheurs et les utilisateurs » pour y parvenir.

La farce réglementaire est un élément bien établi du cahier des charges de la Silicon Valley. En 2018, après que Facebook a été secoué par des scandales de désinformation et de confidentialité, Mark Zuckerberg a déclaré au Congrès que son entreprise avait « la responsabilité de ne pas simplement créer des outils, mais de s’assurer qu’ils sont utilisés pour le bien » et qu’elle recevrait « la bonne réglementation ». Depuis, les plateformes de Meta ont lamentablement échoué à limiter la propagande électorale et la désinformation pandémique. Début 2022, Sam Bankman-Fried a déclaré au Congrès que le gouvernement fédéral devait établir des « directives réglementaires claires et cohérentes » pour les crypto-monnaies. Plus tard dans l’année, sa propre société de crypto-monnaies s’est révélée être une escroquerie, et il a été arrêté pour fraude financière à une échelle comparable au scandale Enron. « Nous assistons à une tentative vraiment astucieuse d’éviter d’être associé à des plateformes technologiques telles que Facebook et Twitter, qui font l’objet d’une surveillance de plus en plus stricte de la part des autorités de régulation en ce qui concerne les dommages qu’elles causent », a déclaré M. Cahn.

Au moins certains des signataires de la déclaration sur l’extinction semblent croire sincèrement que des machines superintelligentes pourraient anéantir l’humanité. Yoshua Bengio, signataire de la déclaration et parfois appelé le « parrain » de l’IA, m’a dit qu’il pensait que les technologies étaient devenues si performantes qu’elles risquaient de déclencher une catastrophe qui pourrait mettre fin au monde, que ce soit en tant qu’entités conscientes rebelles ou entre les mains d’un être humain. « S’il s’agit d’un risque existentiel, il se peut que nous n’ayons qu’une seule chance, et c’est tout », a-t-il déclaré.

Dan Hendrycks, directeur du Centre for AI Safety, m’a dit qu’il pensait de la même manière à propos de ces risques. Il a également ajouté que le public devait mettre un terme à la « course à l’armement en matière d’IA à laquelle se livrent actuellement ces entreprises, qui privilégient le développement des technologies d’IA au détriment de leur sécurité ». Selon M. Hendrycks, le fait que des dirigeants de Google, Microsoft, OpenAI, Deepmind, Anthropic et Stability AI aient signé l’avertissement de son centre peut être le signe d’une réelle inquiétude. M. Altman avait déjà évoqué cette menace avant la création d’OpenAI. Cependant, « même avec cette interprétation généreuse », a déclaré M. Bender,« vous devez vous demander : si vous pensez que c’est si dangereux, pourquoi continuez-vous à le construire? »

Les solutions proposées par ces entreprises aux dommages empiriques et fantasmés de leurs produits sont vagues, pleines de platitudes qui s’écartent d’un ensemble de travaux établis sur ce que les experts m’ont dit que la réglementation de l’IA exigerait réellement. Dans son témoignage, M. Altman a souligné la nécessité de créer une nouvelle agence gouvernementale spécialisée dans l’IA. Microsoft a fait de même. « Il s’agit de reliquats rabâchés », a déclaré M. Whittaker de Signal. j’ai participé à des conversations en 2015 dont le thème était « Avons-nous besoin d’une nouvelle agence ? » Il s’agit d’une vieille question sur laquelle les personnes de haut niveau spéculent généralement dans le cadre de Davos avant de se rendre à des cocktails Et une nouvelle agence, ou toute autre initiative politique exploratoire, « est un objectif à long terme qui prendrait plusieurs décennies avant de pouvoir être réalisé », a déclaré M. Raji. Pendant ce temps, l’IA pourrait non seulement nuire à d’innombrables personnes, mais aussi s’enraciner dans diverses entreprises et institutions, ce qui rendrait toute réglementation significative très difficile.

Depuis une dizaine d’années, les experts étudient rigoureusement les dommages causés par l’IA et proposent des moyens plus réalistes de les prévenir. Les interventions possibles pourraient inclure la documentation publique des données d’entraînement et de la conception des modèles, des mécanismes clairs pour tenir les entreprises responsables lorsque leurs produits diffusent des informations médicales erronées, de la diffamation et d’autres contenus nuisibles, une législation antitrust ou simplement l’application des lois existantes relatives aux droits civils, à la propriété intellectuelle et à la protection des consommateurs. « Si un magasin cible systématiquement les clients noirs par le biais de décisions humaines, il s’agit d’une violation de la législation sur les droits civils », a déclaré M. Cahn. « Et pour moi, ce n’est pas différent lorsqu’un algorithme le fait » De même, si un chatbot rédige un avis juridique raciste ou donne des conseils médicaux erronés, s’il a été formé à des écrits protégés par le droit d’auteur ou s’il escroque les gens pour obtenir de l’argent, les lois en vigueur devraient s’appliquer.

Les prédictions apocalyptiques et les appels à la création d’une nouvelle agence de l’IA équivalent à « une tentative de sabotage réglementaire », a déclaré M. Whittaker, car les personnes qui vendent cette technologie et en tirent profit « façonneraient, évideraient et saboteraient effectivement » l’agence et ses pouvoirs. Il suffit de voir M. Altman témoigner devant le Congrès ou la récente réunion sur l' »IA responsable » entre divers PDG et le président Joe Biden : les personnes qui développent les logiciels et en tirent profit sont les mêmes que celles qui disent au gouvernement comment l’aborder, ce qui est un signe précurseur de la capture réglementaire. « Il y a des décennies de réglementations très spécifiques que les gens exigent en termes d’équité, de justice et d’impartialité », a déclaré Safiya Noble, spécialiste des études sur l’internet à l’UCLA et auteur de « Algorithms of Oppression » (Algorithmes d’oppression). « Et les réglementations dont je vois [les entreprises d’IA] parler sont celles qui sont favorables à leurs intérêts. » Ces entreprises ont également dépensé plusieurs millions de dollars en lobbying auprès du Congrès au cours des trois premiers mois de cette année.

Tout ce qui a vraiment changé par rapport aux conversations d’il y a quelques années sur la réglementation de l’IA, c’est ChatGPT – un programme qui, en produisant un langage semblable à celui des humains, a captivé les consommateurs et les investisseurs, donnant à la Silicon Valley une aura prométhéenne. Cependant, sous ce mythe, les dommages causés par l’IA restent en grande partie inchangés. La technologie repose sur la surveillance et la collecte de données, exploite le travail créatif et physique, amplifie les préjugés et n’est pas consciente. Les idées et les outils nécessaires à la réglementation, qui nécessiterait de s’attaquer à ces problèmes et peut-être de réduire les profits des entreprises, sont à la disposition de tous ceux qui veulent bien regarder. L’avertissement de 22 mots est un tweet, pas une écriture ; une question de foi, pas de preuve. Le fait qu’un algorithme nuise à quelqu’un en ce moment même serait un fait si vous aviez lu cette phrase il y a dix ans, et c’est toujours le cas aujourd’hui.

Avec le contenu de The Atlantic.