La empresa matriz de Google, Alphabet, está advirtiendo a sus empleados que no compartan información personal o empresarial con los chatbots de IA. Esto incluye al propio chatbot de la empresa, Bard.

Este aviso llega en un momento inoportuno, ya que la Unión Europea está en medio de negociaciones con Google antes de permitir el lanzamiento de Bard en los estados miembros, con la privacidad en discusión. Un informe sobre las advertencias de la empresa controladora Alphabet a los empleados sobre los chatbots de IA ha salido a la luz en ese contexto.

Fuentes familiarizadas con el asunto revelaron esto a Reuters, según informa el sitio de noticias. Según el informe, se les prohíbe a los empleados proporcionar materiales confidenciales al chatbot, lo cual fue confirmado posteriormente por la empresa. En un desarrollo relacionado, Google también agregó una nota a su política de privacidad pidiendo a los usuarios que no proporcionen información sensible o confidencial a Bard.

Google busca ser «transparente sobre las limitaciones de su tecnología»

Alphabet también está orientando a los empleados a no usar en producción el código generado por Bard (lo cual el chatbot puede hacer después de su última actualización), según fuentes de Reuters. En un comunicado, Alphabet afirmó que, aunque Bard puede hacer sugerencias no deseadas de código, aún puede ayudar a los programadores. Según Reuters, Google «deseaba ser transparente sobre las limitaciones de su tecnología».

Al igual que OpenAI con ChatGPT, Google utiliza los datos ingresados por los usuarios en Bard para seguir entrenando sus modelos de IA. Solo después de presiones políticas, OpenAI introdujo una forma de optar por no participar, pero esto implicaba una pérdida de conveniencia, ya que los chats anteriores se eliminaban de inmediato.

Google no es la única empresa que emite este tipo de advertencia sobre los chatbots; Samsung recientemente prohibió el uso de ChatGPT y Bard después de descubrir que los empleados estaban ingresando líneas de código sensibles en el chatbot.

Aquellos que no cumplan con la prohibición podrían ser despedidos, según un memorando interno. Las empresas están preocupadas de que los datos sobre el chatbot puedan filtrarse o que terceros puedan obtener información privilegiada de OpenAI y sus socios, como en la preparación de datos para el entrenamiento de IA.

El hecho de que incluso Alphabet ahora esté advirtiendo a sus empleados sobre los chatbots, incluido el suyo propio, muestra que incluso los creadores de estas nuevas herramientas tienen dudas sobre la confiabilidad de estos sistemas.

Fuente: The Decoder.