Le PDG d’OpenAI, Sam Altman, a déclaré qu’il était d’accord avec certaines parties d’une lettre ouverte du Future of Life Institute signée par des leaders technologiques tels que Tesla.

Le PDG Elon Musk et le cofondateur d’Apple Steve Wozniak ont appelé à une pause de six mois dans la recherche sur l’IA, mais ont ajouté que la lettre « manquait la plupart des nuances techniques sur le point où nous avons besoin d’une pause ».

M. Altman a fait ces déclarations lors d’une apparition vidéo, jeudi, à l’occasion d’un événement organisé par le MIT sur le thème de l’entreprise et de l’IA.

OpenAI crée ChatGPT, un robot d’IA capable de créer des réponses humaines aux questions posées par un utilisateur. Le bot a déclenché une frénésie d’IA dans le monde de la technologie. Microsoft utilise la technologie d’OpenAI dans son chatbot Bing et Google a récemment lancé son concurrent Bard.

« Je pense qu’il est très important d’agir avec prudence et d’être plus rigoureux en ce qui concerne les questions de sécurité », a poursuivi M. Altman. « Je ne pense pas que Bard ait été la meilleure façon de procéder

En mars, Musk, Wozniak et des dizaines d’autres universitaires ont demandé l’arrêt immédiat des « expériences » de formation liées à de grands modèles de langage qui étaient « plus puissants que GPT-4 », le principal grand modèle de langage d’OpenAI, ou LLM. Plus de 25 000 personnes ont depuis signé cette lettre.

La technologie GPT d’OpenAI a attiré l’attention internationale lors du lancement de ChatGPT en 2022. La technologie GPT est à la base du chatbot Bing AI de Microsoft et a déclenché une vague d’investissements dans l’IA.

« Les laboratoires d’IA et les experts indépendants devraient utiliser cette pause pour développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement de l’IA avancée, qui sont rigoureusement audités et supervisés par des experts externes indépendants », peut-on lire dans la lettre.

« Je suis également d’accord pour dire qu’à mesure que les capacités deviennent de plus en plus sérieuses, la barre de sécurité doit être relevée », a déclaré M. Altman lors de l’événement organisé par le MIT.

Au début de l’année, M. Altman a reconnu que la technologie de l’IA lui faisait « un peu peur ».

Des questions sur l’utilisation sûre et éthique de l’IA ont été soulevées à la Maison-Blanche, au Capitole et dans les salles de conseil d’administration à travers les États-Unis.

« Nous faisons d’autres choses que le GPT-4 qui, à mon avis, posent toutes sortes de problèmes de sécurité qu’il est important d’aborder et qui n’ont absolument pas été mentionnés dans la lettre », a déclaré le dirigeant d’OpenAI.