Geoffrey Hinton, qui a remporté le « prix Nobel de l’informatique » pour ses travaux pionniers sur les réseaux neuronaux, est désormais libre de parler des risques de l’IA.
Geoffrey Hinton, qui, avec deux autres « parrains de l’IA », a remporté le prix Turing 2018 pour ses travaux fondamentaux qui ont conduit à l’essor actuel de l’intelligence artificielle, déclare aujourd’hui qu’une partie de lui regrette l’œuvre de sa vie. M. Hinton a récemment quitté son emploi chez Google pour s’exprimer librement sur les risques de l’IA, selon une interview de l’homme de 75 ans publiée dans le New York Times.
« Je me console avec l’excuse habituelle : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait », a déclaré M. Hinton, qui a travaillé chez Google pendant plus de dix ans. « Il est difficile de voir comment vous pouvez empêcher de mauvais acteurs de vous utiliser pour de mauvaises choses
M. Hinton a notifié sa démission à Google le mois dernier et s’est entretenu directement avec le PDG Sundar Pichai jeudi, selon le NYT. Les détails de cette discussion n’ont pas été divulgués.
Cet universitaire de longue date a rejoint Google après l’acquisition d’une société créée par M. Hinton et deux de ses étudiants, dont l’un est devenu le scientifique en chef d’OpenAI. M. Hinton et ses étudiants ont mis au point un réseau neuronal qui, après avoir analysé des milliers de photos, a appris à identifier des objets courants tels que des chiens, des chats et des fleurs. C’est ce travail qui a conduit à la création de ChatGPT et de Google Bard.
Selon l’interview du NYT, M. Hinton était satisfait de la gestion de la technologie par Google jusqu’à ce que Microsoft lance le nouveau Bing infusé d’OpenAI, remettant en cause le cœur de métier de Google et provoquant une réaction de« code rouge »au sein du géant de la recherche. Selon M. Hinton, il pourrait être impossible de mettre un terme à cette concurrence féroce, qui aboutirait à un monde où il y aurait tellement de fausses images et de faux textes que personne ne serait en mesure de dire « ce qui est vrai ».
Le directeur scientifique de Google, Jeff Dean, s’est efforcé d’atténuer le choc en déclarant : « Nous restons attachés à une approche responsable de l’IA. Nous apprenons continuellement à comprendre les risques émergents tout en innovant avec audace »
M. Hinton a également pris la parole sur Twitter pour clarifier sa position sur la gestion de Google :
La propagation de la désinformation n’est que l’une des préoccupations immédiates de M. Hinton. À plus long terme, il craint que l’IA n’élimine les emplois routiniers et peut-être l’humanité elle-même, car l’IA commence à écrire et à exécuter son propre code.
« L’idée que ces choses puissent devenir plus intelligentes que les gens, certains y ont cru », a déclaré M. Hinton au NYT. « Mais la plupart des gens pensaient que cela allait trop loin. Et je pensais que c’était trop loin. Je pensais que c’était dans 30 à 50 ans, voire plus. Évidemment, je n’y pense plus. »
Avec le contenu de The Verge.