Kevin Baragona, fondateur et PDG de DeepAI, entrevoit un avenir prometteur dans le développement de l’intelligence artificielle et souligne l’importance d’être témoin de cette évolution. Il affirme que nous vivons une ère d’avancées technologiques qui semblent sortir d’un film de science-fiction, et il se sent reconnaissant d’être présent lors de cette transformation.
Le lancement de ChatGPT l’année dernière a non seulement mis l’intelligence artificielle entre les mains des gens, mais a également intensifié le débat au sein de la communauté de l’IA sur les risques, les avantages et les inconvénients de cette technologie.
Ce débat sur l’IA a débouché sur une lettre largement signée appelant à une pause de six mois dans le développement de modèles d’IA plus puissants et, par la suite, sur une déclaration soulignant le risque d' »extinction » de l’IA. Ces deux textes ont reçu à la fois des soutiens et des critiques, de la part d’experts qui considéraient que le communiqué n’était rien d’autre que de l’alarmisme.
Kevin Baragona, fondateur et PDG de DeepAI – la première entreprise à avoir exploré un générateur d’images à partir d’un texte en ligne – a signé la lettre appelant à un moratoire sur le développement de modèles plus puissants que le GPT-4.
Selon lui, la lettre est devenue largement symbolique, bien que l’idée d’un ralentissement du développement pour des raisons de sécurité ait fait son chemin. Le PDG d’OpenAI, Sam Altman, a récemment déclaré que l’entreprise ne s’entraînait pas actuellement sur GPT-5 en raison des risques de sécurité.
« Nous en sommes encore loin », a-t-il ajouté.
ce n’est pas une blague
En 2016, lorsque DeepAI a été lancée pour la première fois, l’IA n’était guère plus qu’une « curiosité ». C’était un défi. Aujourd’hui, nous avons réussi à faire fonctionner l’IA et le défi est un peu différent », a déclaré M. Baragona à The Street. « Le défi est le suivant : que devons-nous faire de cette technologie et comment pouvons-nous l’utiliser en toute sécurité ?
« Ce n’est pas une plaisanterie », a-t-il souligné.
L’IA peut nuire à la société de plusieurs manières. L’expert en IA Gary Marcus, par exemple, est plus préoccupé par la propagande, la désinformation et la fraude en ligne que par la conquête du monde par les robots.
Mais l’une des principales préoccupations de M. Baragona concerne l’impact économique imminent de l’IA, qui « menace de perturber toutes sortes d'emplois basés sur la connaissance ».
« Peu importe que vous soyez médecin, avocat, agent d’assistance à la clientèle, journaliste ou développeur de logiciels, les gens pourraient dire que l’IA n’est pas assez performante. La réponse à cette question est que l’IA s’améliore de plus en plus. Elle n’est peut-être que de 30 oa aujourd’hui, mais avec la technologie exponentielle, on peut s’attendre à ce qu’elle soit de 99 apaz dans un an »
C’est la réponse de Kevin Baragona aux artistes, musiciens et autres créateurs qui sont déjà remplacés par l’IA : « Ils ne sont pas seuls. »
La perturbation causée par l’IA, selon Baragona, touchera tous les secteurs. Actuellement, seuls les emplois physiques, tels que les électriciens ou les chiropracteurs, ne sont pas touchés, mais il n’y a pas de sécurité dans ce domaine non plus, car la robotique fusionnera avec l’IA et deviendra encore plus importante.
« Je ne pense pas que les artistes soient spécifiquement visés, car tout le monde est également concerné », a déclaré M. Baragona. « Je pense qu’ils ont maintenant, dans un avenir prévisible, des outils d’IA dans leur boîte à outils, de sorte qu’ils devraient être en mesure de créer de meilleures choses. »
Réglementation optimale de l’IA
L’objectif de M. Baragona avec DeepAI est d’informer les gens sur les capacités de la technologie et de plaider en faveur de certaines politiques. Toutefois, les propositions contenues dans la loi sur l’IA de l’Union européenne – qui classe les modèles en trois catégories : risque inacceptable, risque élevé, risque limité et risque minimal – sont, selon lui, trop restrictives. Le défi auquel sont confrontés les régulateurs consiste à trouver un équilibre entre l’innovation et la protection.
« Si nous pouvions établir des lignes directrices claires contre l’utilisation de deepfakes pour voler les visages et les voix des gens sans leur permission, et réglementer de la même manière d’autres types de désinformation, ce serait un bon début », a déclaré M. Baragona, « Il serait également formidable d’avoir une réglementation en matière de protection de la vie privée dans ce pays »
Selon lui, la déclaration des droits de l’IA proposée par la Maison Blanche pourrait être efficace si elle était transformée en une loi claire. La proposition de la Maison Blanche décompose une éventuelle réglementation de l’IA en cinq principes directeurs : des systèmes sûrs et efficaces, la confidentialité des données, la protection contre la discrimination, la notification et l’explication, et les alternatives humaines.
Toutefois, le danger général est lié à l’incertitude de cette technologie. M. Altman lui-même a déclaré qu’une « IA superintelligente mal orientée pourrait causer de graves dommages au monde ».
Cependant, le risque hypothétique d’une « singularité », qui implique la destruction de la race humaine par l’IA, « ignore les dommages réels résultant de l’utilisation des systèmes d’IA aujourd’hui », a écrit l’Institut de recherche sur l’IA distribuée (DAIR).
D’autres experts, comme le Dr Noah Giansiracusa, estiment qu’il est trop tôt pour avoir une opinion tranchée sur l’anéantissement. Giansiracusa estime que la voie la plus probable est celle qui comporte à la fois des résultats positifs et négatifs.
« Les économistes ne savent vraiment pas ce qui va se passer. Je pense qu’il ne faut pas faire confiance à ceux qui disent qu’ils savent ce qui va se passer à cause de cela », a déclaré M. Baragona, ajoutant : « Il n’y a jamais eu de vague technique comme celle-ci. Il ne faut pas la comparer aux révolutions précédentes
Bien qu’il soit difficile de prédire exactement comment l’IA affectera les choses, la prédiction la plus confiante de M. Baragona est que nous nous dirigeons vers une « sorte de futur de science-fiction ».
« Je pense que des miracles se produiront probablement. Je pense que des choses terrifiantes sont également probables », a-t-il déclaré, ajoutant qu’à l’instar de la situation actuelle, « ce sera un mélange des genres ».
Malgré ces possibles miracles, M. Baragona n’est « pas complètement à l’aise avec notre trajectoire ».
« Si je pouvais appuyer sur un bouton et garantir que l’IA ne serait pas créée, je serais tenté d’appuyer sur ce bouton », a-t-il déclaré. « Cela dit, le fait est que cette technologie est en train d’être créée. Je pense que c’est un impératif moral d’essayer de façonner le monde d’une manière éthique. Je suis beaucoup plus à même de le faire en étant dans l’industrie de l’IA qu’en étant à l’extérieur »
Et pendant ce temps, la technologie continue à devenir de plus en plus puissante.
« Nous allons continuer à créer de l’IA en tant qu’espèce ; il y a un côté positif à pouvoir assister au développement d’une évolution très impressionnante sur la planète Terre », a déclaré M. Baragona, « Je me sens donc presque reconnaissant de pouvoir en être le témoin »