Alarmés par les risques croissants posés par les plateformes générées par l’intelligence artificielle (IA) telles que ChatGPT, les régulateurs et les organismes chargés de l’application de la loi en Europe cherchent des moyens de ralentir la fuite en avant de l’humanité dans l’avenir numérique.

Avec peu de garde-fous en place, ChatGPT, qui répond aux demandes des utilisateurs sous forme d’essais, de poèmes, de feuilles de calcul et de codes informatiques, a enregistré plus de 1,6 milliard de visites depuis le mois de décembre.

Europol, l’agence de l’Union européenne pour la coopération policière, a averti fin mars que ChatGPT, qui n’est qu’une des milliers de plateformes d’IA actuellement utilisées, pourrait aider les criminels à faire de l’hameçonnage, à créer des logiciels malveillants et même à commettre des actes terroristes.

« Si un criminel potentiel ne sait rien d’un domaine criminel particulier, ChatGPT peut accélérer considérablement le processus de recherche, en offrant des informations importantes qui peuvent être exploitées dans les étapes suivantes », indique le rapport d’Europol.

« Ainsi, ChatGPT peut être utilisé pour se renseigner sur un grand nombre de domaines criminels potentiels sans connaissances préalables, qu’il s’agisse de la manière de pénétrer dans une maison, du terrorisme, de la cybercriminalité ou de l’abus sexuel des enfants.

Le mois dernier, l’Italie a temporairement interdit ChatGPT après qu’un problème ait exposé des fichiers d’utilisateurs. Le conseil italien pour le respect de la vie privée, Garante, a menacé le créateur du programme, OpenAI, de lui infliger des millions de dollars d’amendes pour violation de la vie privée tant qu’il n’aura pas réglé la question de la destination des informations sur les utilisateurs et qu’il n’aura pas fixé des limites d’âge sur la plateforme. L’Espagne, la France et l’Allemagne enquêtent sur des plaintes pour violation de données personnelles. Ce mois-ci, le Conseil européen de la protection des données a créé un groupe de travail chargé de coordonner les réglementations dans les 27 pays de l’Union européenne.

« C’est un signal d’alarme en Europe », a déclaré à Yahoo News Dragos Tudorache, membre du Parlement européen et coauteur du projet de loi sur l’intelligence artificielle, qui est en cours de finalisation au Parlement européen et qui établirait une autorité centrale en matière d’intelligence artificielle.

« Nous devons discerner très clairement ce qui se passe et comment définir les règles

Bien que l’intelligence artificielle fasse partie de la vie quotidienne depuis plusieurs années – Alexa d’Amazon et les jeux d’échecs en ligne n’en sont que deux exemples parmi tant d’autres – rien n’a mis en évidence le potentiel de l’IA comme ChatGPT, un « grand modèle de langage » interactif où les utilisateurs peuvent obtenir des réponses à leurs questions ou accomplir des tâches en quelques secondes.

« ChatGPT possède des connaissances que très peu d’humains possèdent », a déclaré Mark Bünger, cofondateur de Futurity Systems, une agence de conseil basée à Barcelone et axée sur l’innovation scientifique. Parmi les choses qu’il sait mieux que la plupart des êtres humains, il y a la programmation d’un ordinateur. Il sera donc probablement très doué et très rapide pour programmer la prochaine meilleure version de lui-même. Et cette version sera encore meilleure et programmera quelque chose qu’aucun humain ne peut comprendre »

Cette technologie étonnamment efficace ouvre également la porte à toutes sortes de fraudes, selon les experts, notamment l’usurpation d’identité et le plagiat dans les écoles.

« Pour les éducateurs, la possibilité que le cours soumis ait pu être assisté, voire entièrement écrit, par un système d’IA générative tel que ChatGPT d’OpenAI ou Bard de Google, est une source d’inquiétude », a déclaré Nick Taylor, directeur adjoint du Centre de robotique d’Édimbourg, à Yahoo News.

OpenAI et Microsoft, qui a soutenu financièrement OpenAI mais a développé un chatbot concurrent, n’ont pas répondu à une demande de commentaire pour cet article.

« L’IA existe depuis des décennies, mais elle se développe aujourd’hui parce qu’elle est accessible à tous », a déclaré Cecilia Tham, PDG de Futurity Systems. Depuis que ChatGPT a été mis à la disposition du public à titre d’essai gratuit le 30 novembre, les programmeurs l’ont adapté pour développer des milliers de nouveaux chatbots, de PlantGPT, qui aide à surveiller les plantes d’intérieur, à l’hypothétique ChaosGPT « qui est conçu pour générer des résultats chaotiques ou imprévisibles », selon son site web, et qui finit par « détruire l’humanité ».

Une autre variante, AutoGPT, abréviation de Autonomous GPT, peut effectuer des tâches plus complexes axées sur les objectifs. « Par exemple, explique M. Tham, vous pouvez dire : « Je veux gagner 1 000 euros par jour. Comment puis-je y parvenir ? » et vous découvrirez toutes les étapes intermédiaires pour atteindre cet objectif.

Mais qu’en est-il si quelqu’un dit : « Je veux tuer 1 000 personnes. Donnez-moi toutes les étapes pour y parvenir

Même si le modèle ChatGPT comporte des restrictions sur les informations qu’il peut fournir, elle note que « des gens ont réussi à le pirater ».

Les risques potentiels des chatbots et de l’IA en général ont conduit le Future of Life Institute, un groupe de réflexion axé sur la technologie, à publier le mois dernier une lettre ouverte appelant à un arrêt temporaire du développement de l’IA. Signée par Elon Musk et Steve Wozniak, cofondateur d’Apple, cette lettre souligne que

« Les systèmes d’IA dotés d’une intelligence humaine compétitive peuvent présenter des risques profonds pour la société et l’humanité » et « les laboratoires d’IA sont engagés dans une course incontrôlée au développement et au déploiement d’esprits numériques de plus en plus puissants que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ».

Les signataires demandent une pause de six mois dans le développement de systèmes d’IA plus puissants que le GPT-4 afin de permettre l’élaboration d’une réglementation, et appellent les gouvernements à « instituer un moratoire » si les principaux acteurs du secteur ne le font pas volontairement.

Brando Benifei, parlementaire européen et coauteur de la loi sur l’IA, se moque de cette idée : « Un moratoire n’est pas réaliste. « Un moratoire n’est pas réaliste », a-t-il déclaré à Yahoo News. « Ce que nous devrions faire, c’est continuer à travailler pour trouver les bonnes règles pour le développement de l’IA », a-t-il ajouté, « nous avons également besoin d’un débat mondial sur la façon de relever les défis de cette IA très puissante ».

Cette semaine, les législateurs européens travaillant sur l’IA ont publié un « appel à l’action » demandant au président Biden et à la présidente de la Commission européenne Ursula von der Leyen de « convoquer un sommet mondial de haut niveau » afin d’établir « un ensemble préliminaire de principes pour le développement, le contrôle et le déploiement » de l’IA.

M. Tudorache a déclaré à Yahoo News que la loi sur l’IA, qui devrait être promulguée l’année prochaine, « confère de nouveaux pouvoirs aux régulateurs pour traiter les applications de l’IA » et donne aux régulateurs de l’UE l’autorité nécessaire pour infliger de lourdes amendes. La législation comprend également un classement des risques de diverses activités d’IA et interdit des utilisations telles que la « notation sociale », un système de surveillance dystopique qui classerait pratiquement toutes les interactions sociales sur une échelle de mérite.

« Les consommateurs devraient savoir quelles données ChatGPT utilise et stocke et à quoi elles servent « , a déclaré Sébastien Pant, directeur adjoint des communications au Bureau européen des unions de consommateurs (BEUC), à Yahoo News. « Nous ne savons pas encore clairement quelles données sont utilisées ni si la collecte des données respecte la législation sur la protection des données

Les États-Unis, pour leur part, tardent encore à prendre des mesures concrètes pour réglementer l’IA, malgré les inquiétudes récemment exprimées par Alvaro Bedoya, commissaire de la FTC, selon lesquelles « l’IA est désormais utilisée pour décider qui embaucher, qui licencier, qui obtient un prêt, qui reste à l’hôpital et qui est renvoyé chez lui ».

Lorsqu’on a récemment demandé à Joe Biden si l’IA pouvait être dangereuse, il a répondu : « Cela reste à voir – cela pourrait être le cas ».

Les différentes attitudes concernant la protection des données personnelles des consommateurs remontent à plusieurs décennies, a déclaré à Yahoo News Gabriela Zanfir-Fortuna, vice-présidente chargée de la protection de la vie privée au niveau mondial au Future of Privacy Forum, un groupe de réflexion axé sur la protection des données.

« L’UE a accordé une grande importance à la manière dont les droits des personnes sont affectés par l’automatisation de leurs données personnelles dans cette nouvelle ère numérique et informatisée, au point d’inclure une disposition dans sa Charte des droits fondamentaux », a déclaré Mme Zanfir-Fortuna.

Des pays européens comme l’Allemagne, la Suède et la France ont adopté des lois sur la protection des données il y a 50 ans, a-t-il ajouté. « Les législateurs américains semblent avoir été moins préoccupés par cette question au cours des décennies précédentes, puisque le pays ne dispose toujours pas d’une loi générale sur la protection des données au niveau fédéral.

Gerd Leonhard, auteur de « Technology vs. Humanity », et d’autres s’inquiètent de ce qui se passera lorsque ChatGPT et des formes plus avancées d’IA seront utilisées par l’armée, les institutions bancaires et les personnes travaillant sur les problèmes environnementaux.

« La blague qui court dans la communauté de l’IA », a déclaré Leonhard, « est que si vous demandez à l’IA de résoudre le problème du changement climatique, elle tuera tous les humains. C’est un inconvénient pour nous, mais c’est la réponse la plus logique »

Références de Yahoo.