Funcionários da Samsung supostamente inseriram dados confidenciais no ChatGPT. Em resposta, a gigante da eletrônica está proibindo seu uso e planeja lançar novas políticas de segurança, bem como seus próprios modelos.

A Samsung proibiu o uso interno de ChatGPT, Bard, Bing Chat e ferramentas de IA geradoras semelhantes, informou a Bloomberg, citando um memorando interno. Um porta-voz da Samsung confirmou a existência do memorando.

De acordo com o memorando, a Samsung está preocupada que os dados inseridos nas ferramentas possam ser armazenados em servidores externos, nunca excluídos e potencialmente compartilhados com outros usuários. No início de abril, houve um incidente no qual os desenvolvedores da Samsung inseriram o código-fonte interno no ChatGPT.

Usar o ChatGPT pode fazer com que você seja demitido

A proibição da Samsung à IA generativa se aplica a todos os computadores e dispositivos móveis fornecidos pela empresa, bem como à rede interna da empresa. Os funcionários que usam o ChatGPT e similares para uso pessoal não estão autorizados a inserir nenhuma informação pessoal ou relacionada à empresa. Qualquer um que não cumprir pode ser demitido, de acordo com o memorando.

A Samsung está trabalhando em um recurso de bloco para IA geradora, de acordo com a Bloomberg. O objetivo é interromper temporariamente o uso adicional de IA geradora até que as diretrizes de segurança ainda a serem desenvolvidas para o uso da tecnologia entrem em vigor, o que poderia, em princípio, aumentar a “produtividade e eficiência” dos funcionários.

A Samsung também está trabalhando em suas próprias ferramentas de IA para tradução e resumo de documentos, de acordo com a Bloomberg.

Modelos proprietários de IA podem se tornar uma tendência do setor

A segurança dos dados corporativos e pessoais é atualmente uma questão espinhosa no desenvolvimento da IA. Empresas como a OpenAI e a Microsoft até agora adotaram uma abordagem que varia de descuidada a imprudente, coletando todos os dados disponíveis para pré-treinar e depois melhorar grandes modelos de IA.

Outro risco potencial de usar IA geradora na empresa é que a IA pode gerar conteúdo que já é de propriedade de outra empresa. Por razões legais e de privacidade, as grandes empresas, em particular, podem preferir treinar seus próprios sistemas de IA, onde têm conhecimento preciso dos dados de treinamento subjacentes, e implementá-los localmente.

A OpenAI quer combater esse possível desenvolvimento com uma versão comercial do ChatGPT, que pelo menos não armazena mais dados de entrada ou os usa para otimização de IA. No entanto, o OpenAI ainda não fornece nenhuma informação sobre o corpus de dados usado para treinar GPT-4. Com informações do The Decoder.