Alphabet, la société mère de Google, met en garde ses employés contre le partage d’informations personnelles ou professionnelles avec des chatbots d’IA. Cela inclut le propre chatbot de l’entreprise, Bard.

Cette révélation ne pouvait pas tomber plus mal : alors que l’Union européenne est en pleine négociation avec Google avant d’autoriser le lancement de Bard dans les États membres, avec la protection de la vie privée à l’ordre du jour, un rapport a émergé sur les avertissements de la société mère Alphabet aux employés au sujet des chatbots d’intelligence artificielle.

Des personnes familières avec le sujet ont révélé cela à Reuters, comme le rapporte le site d’information. Selon le rapport, il est interdit aux employés de fournir des documents confidentiels au chatbot, ce qui a été confirmé par la suite par l’entreprise. Dans le même ordre d’idées, Google a également ajouté une note dans sa politique de confidentialité demandant aux utilisateurs de ne pas fournir d’informations sensibles ou confidentielles à Bard.

Google veut être « transparent sur les limites de sa technologie »

Alphabet demande également à ses employés de ne pas utiliser le code généré par Bard dans la production (Bard peut le faire après sa dernière mise à jour), selon des sources de Reuters. Dans un communiqué, Alphabet a déclaré que si Bard peut faire des suggestions de code indésirables, il peut néanmoins aider les programmeurs. Selon Reuters, Google « a voulu être transparent sur les limites de sa technologie ».

Comme OpenAI avec ChatGPT, Google utilise les données saisies par les utilisateurs dans Bard pour perfectionner ses modèles d’IA. Ce n’est qu’à la suite de pressions politiques qu’OpenAI a introduit un moyen de se désengager, mais cela s’est traduit par une perte de commodité puisque les conversations précédentes sont immédiatement supprimées.

Google n’est pas la seule entreprise à émettre ce type d’avertissement concernant les chatbots ; Samsung a récemment interdit l’utilisation de ChatGPT et de Bard après avoir découvert que des employés inséraient des lignes de code sensibles dans le chatbot.

Les personnes qui ne respectent pas cette interdiction pourraient être licenciées, selon une note interne. Les entreprises craignent que des données relatives au chatbot ne soient divulguées ou que des tiers n’obtiennent des informations d’OpenAI et de ses partenaires, par exemple en préparant des données pour l’entraînement à l’IA.

Le fait que même Alphabet mette en garde ses employés contre les chatbots, y compris les siens, montre que même les créateurs de ces nouveaux outils sont incertains de la fiabilité de ces systèmes. Source : The Decoder.