Al parecer, empleados de Samsung introdujeron datos confidenciales en ChatGPT. En respuesta, el gigante de la electrónica está prohibiendo su uso y planea lanzar nuevas políticas de seguridad, así como sus propias plantillas.
Samsung ha prohibido el uso interno de ChatGPT , Bard, Bing Chat y herramientas similares de generación de inteligencia artificial, informó Bloomberg, citando un memorando interno. Un portavoz de Samsung confirmó la existencia de la nota.
Según la nota, a Samsung le preocupa que los datos introducidos en las herramientas puedan almacenarse en servidores externos, no eliminarse nunca y compartirse potencialmente con otros usuarios. A principios de abril se produjo un incidente en el que desarrolladores de Samsung introdujeron código fuente interno en ChatGPT.
El uso de ChatGPT puede provocar el despido
La prohibición de Samsung sobre la IA generativa se aplica a todos los ordenadores y dispositivos móviles proporcionados por la empresa, así como a su red interna. Los empleados que utilicen ChatGPT y similares para uso personal no están autorizados a introducir ninguna información personal o relacionada con la empresa. Cualquiera que incumpla esta norma podría ser despedido, según la nota.
Samsung está trabajando en una función de bloqueo para la IA generativa, según Bloomberg. El objetivo es detener temporalmente el uso de la IA generativa hasta que entren en vigor unas directrices de seguridad aún por desarrollar para el uso de la tecnología, que en principio podría aumentar la «productividad y eficiencia» de los empleados.
Samsung también está trabajando en sus propias herramientas de IA para traducir y resumir documentos, según Bloomberg.
Los modelos propios de IA podrían convertirse en una tendencia del sector
La seguridad de los datos corporativos y personales es actualmente un tema espinoso en el desarrollo de la IA. Empresas como OpenAI y Microsoft han adoptado hasta ahora un enfoque que oscila entre el descuido y la imprudencia, recopilando todos los datos disponibles para preentrenar y luego mejorar grandes modelos de IA.
Otro riesgo potencial del uso de IA generativa en la empresa es que la IA puede generar contenido que ya es propiedad de otra empresa. Por razones legales y de privacidad, las grandes empresas en particular pueden preferir entrenar sus propios sistemas de IA, donde tienen un conocimiento preciso de los datos de entrenamiento subyacentes, e implementarlos localmente.
OpenAI quiere contrarrestar esta posible evolución con una versión comercial de ChatGPT, que al menos ya no almacena datos de entrada ni los utiliza para la optimización de la IA. Sin embargo, OpenAI aún no proporciona ninguna información sobre el corpus de datos utilizado para entrenar GPT-4. Con información de The Decoder.