Des employés de Samsung auraient introduit des données confidentielles dans ChatGPT. En réaction, le géant de l’électronique interdit son utilisation et prévoit de lancer de nouvelles politiques de sécurité ainsi que ses propres modèles.
Samsung a interdit l’utilisation en interne de ChatGPT, Bard, Bing Chat et d’autres outils similaires générant de l’intelligence artificielle, a rapporté Bloomberg, citant une note interne. Un porte-parole de Samsung a confirmé l’existence de cette note.
Selon cette note, Samsung craint que les données saisies dans ces outils ne soient stockées sur des serveurs externes, jamais supprimées et potentiellement partagées avec d’autres utilisateurs. Au début du mois d’avril, un incident s’est produit au cours duquel des développeurs de Samsung ont inséré du code source interne dans ChatGPT.
L’utilisation de ChatGPT peut vous faire licencier
L’interdiction par Samsung de l’IA générative s’applique à tous les ordinateurs et appareils mobiles fournis par l’entreprise, ainsi qu’à son réseau interne. Les employés qui utilisent ChatGPT et d’autres outils similaires à des fins personnelles ne sont pas autorisés à saisir des informations personnelles ou liées à l’entreprise. Toute personne ne respectant pas cette règle pourrait être licenciée, selon le mémo.
Selon Bloomberg, Samsung travaille sur une fonction de blocage pour l’IA générative. L’objectif est d’interrompre temporairement l’utilisation de l’IA générative jusqu’à l’entrée en vigueur de directives de sécurité pour l’utilisation de cette technologie, qui pourrait en principe augmenter la « productivité et l’efficacité » des employés.
Selon Bloomberg, Samsung travaille également sur ses propres outils d’IA pour traduire et résumer des documents.
Les modèles d’IA propriétaires pourraient devenir une tendance industrielle
La sécurité des données d’entreprise et des données personnelles est actuellement une question épineuse dans le développement de l’IA. Des entreprises comme OpenAI et Microsoft ont jusqu’à présent adopté une approche qui va de l’insouciance à l’inconscience, en collectant toutes les données disponibles pour pré-entraîner puis améliorer de grands modèles d’IA.
Un autre risque potentiel de l’utilisation de l’IA générative dans l’entreprise est que l’IA puisse générer du contenu qui appartient déjà à une autre entreprise. Pour des raisons juridiques et de protection de la vie privée, les grandes entreprises en particulier peuvent préférer former leurs propres systèmes d’IA, où elles ont une connaissance précise des données de formation sous-jacentes, et les mettre en œuvre localement.
OpenAI souhaite contrer cette évolution possible avec une version commerciale de ChatGPT qui, au moins, ne stocke plus les données d’entrée et ne les utilise plus pour l’optimisation de l’IA. Cependant, OpenAI ne fournit pas encore d’informations sur le corpus de données utilisé pour l’entraînement de GPT-4. Avec l’aide de The Decoder.