La FTC enquête sur le ChatGPT d’OpenAI en raison de préoccupations concernant la manipulation des données des utilisateurs et la diffusion de désinformation sur des individus, selon le Washington Post et le New York Times.

Dans une lettre détaillée de 20 pages, l’agence pose plusieurs questions à OpenAI concernant les risques potentiels pour les utilisateurs et demande des informations sur les incidents de sécurité des données et les précautions prises avant les mises à jour logicielles.

Elle demande également plus d’informations sur la fuite de l’historique des conversations qui s’est produite en mars, ainsi que sur la connaissance des utilisateurs du ChatGPT concernant sa capacité à générer de fausses informations.

Malgré sa capacité de communication similaire à celle d’un être humain, l’IA n’a pas de compréhension du contenu qu’elle génère, ce qui a conduit à des cas où elle a créé des faussetés préjudiciables sur des personnes. Il existe au moins deux cas connus publiquement où le ChatGPT a diffusé des propos préjudiciables et faux sur des individus.

Dans l’un des cas, le ChatGPT a accusé à tort un professeur de droit d’avoir commis une agression sexuelle. Dans un autre cas connu, le ChatGPT a généré de fausses allégations sur un maire australien qui aurait prétendument été emprisonné pour corruption.

L’enquête de la FTC commence par une fuite, ce qui déçoit le PDG d’OpenAI, Sam Altman

Cette enquête marque le premier défi réglementaire significatif pour OpenAI. Le cofondateur de la startup, Sam Altman, avait précédemment accueilli favorablement la réglementation de l’IA lors d’une audition au Congrès, évoquant la croissance rapide de l’industrie et les risques potentiels tels que la perte d'emplois et la diffusion de désinformation.

Sur Twitter, Altman réagit à l’enquête de la FTC en la qualifiant de décevante, car elle « commence par une fuite et ne contribue pas à instaurer la confiance ».

Altman souligne que le GPT-4 est construit sur la base de « plusieurs années de recherche en matière de sécurité », avec une phase supplémentaire de 6 mois après l’entraînement initial pour optimiser l’alignement et la sécurité du modèle.

« Nous protégeons la vie privée des utilisateurs et concevons nos systèmes pour apprendre sur le monde, pas sur les individus », écrit Altman.

Avec les informations de The Decoder.