A empresa controladora do Google, Alphabet, está alertando os funcionários para não compartilharem informações pessoais ou empresariais com chatbots de IA. Isso inclui o próprio chatbot da empresa, o Bard.

Essa divulgação não poderia ter ocorrido em pior momento: enquanto a União Europeia está em meio a negociações com o Google antes de permitir o lançamento do Bard nos estados membros, com a privacidade em pauta, surgiu um relatório sobre os avisos da empresa controladora Alphabet aos funcionários sobre os chatbots de IA.

Pessoas familiarizadas com o assunto revelaram isso à Reuters, conforme relata o site de notícias. De acordo com o relatório, os funcionários estão proibidos de fornecer materiais confidenciais ao chatbot, o que foi posteriormente confirmado pela empresa. Em um desenvolvimento relacionado, o Google também adicionou uma observação em sua política de privacidade pedindo aos usuários que não forneçam informações sensíveis ou confidenciais ao Bard.

O Google visa ser “transparente sobre as limitações de sua tecnologia”

A Alphabet também está orientando os funcionários a não utilizarem em produção o código gerado pelo Bard (o Bard pode fazer isso após sua última atualização), de acordo com fontes da Reuters. Em um comunicado, a Alphabet afirmou que, embora o Bard possa fazer sugestões indesejadas de código, ainda pode ajudar os programadores. Segundo a Reuters, o Google “desejava ser transparente sobre as limitações de sua tecnologia”.

Assim como a OpenAI com o ChatGPT, o Google utiliza os dados inseridos pelos usuários no Bard para treinar ainda mais seus modelos de IA. Somente após pressões políticas a OpenAI introduziu uma forma de optar por não participar, mas isso implicou em perda de conveniência, pois os chats anteriores são excluídos imediatamente.

O Google não é a única empresa a emitir esse tipo de alerta sobre os chatbots; a Samsung recentemente proibiu o uso do ChatGPT e do Bard após descobrir que funcionários estavam inserindo linhas de código sensíveis no chatbot.

Aqueles que não cumprirem a proibição poderão ser demitidos, de acordo com um memorando interno. As empresas estão preocupadas que dados sobre o chatbot possam ser vazados ou que terceiros possam obter insights da OpenAI e de seus parceiros, como na preparação de dados para treinamento de IA.

O fato de até mesmo a Alphabet agora alertar seus funcionários sobre os chatbots, incluindo o seu próprio, mostra que até mesmo os criadores dessas novas ferramentas estão incertos sobre a confiabilidade desses sistemas. Fonte do The Decoder.