A empresa controladora do Google, Alphabet, está alertando os funcionários para não compartilharem informações pessoais ou empresariais com chatbots de IA. Isso inclui o próprio chatbot da empresa, o Bard.
Essa divulgação não poderia ter ocorrido em pior momento: enquanto a União Europeia está em meio a negociações com o Google antes de permitir o lançamento do Bard nos estados membros, com a privacidade em pauta, surgiu um relatório sobre os avisos da empresa controladora Alphabet aos funcionários sobre os chatbots de IA.
Pessoas familiarizadas com o assunto revelaram isso à Reuters, conforme relata o site de notícias. De acordo com o relatório, os funcionários estão proibidos de fornecer materiais confidenciais ao chatbot, o que foi posteriormente confirmado pela empresa. Em um desenvolvimento relacionado, o Google também adicionou uma observação em sua política de privacidade pedindo aos usuários que não forneçam informações sensíveis ou confidenciais ao Bard.
O Google visa ser “transparente sobre as limitações de sua tecnologia”
A Alphabet também está orientando os funcionários a não utilizarem em produção o código gerado pelo Bard (o Bard pode fazer isso após sua última atualização), de acordo com fontes da Reuters. Em um comunicado, a Alphabet afirmou que, embora o Bard possa fazer sugestões indesejadas de código, ainda pode ajudar os programadores. Segundo a Reuters, o Google “desejava ser transparente sobre as limitações de sua tecnologia”.
Assim como a OpenAI com o ChatGPT, o Google utiliza os dados inseridos pelos usuários no Bard para treinar ainda mais seus modelos de IA. Somente após pressões políticas a OpenAI introduziu uma forma de optar por não participar, mas isso implicou em perda de conveniência, pois os chats anteriores são excluídos imediatamente.
O Google não é a única empresa a emitir esse tipo de alerta sobre os chatbots; a Samsung recentemente proibiu o uso do ChatGPT e do Bard após descobrir que funcionários estavam inserindo linhas de código sensíveis no chatbot.
Aqueles que não cumprirem a proibição poderão ser demitidos, de acordo com um memorando interno. As empresas estão preocupadas que dados sobre o chatbot possam ser vazados ou que terceiros possam obter insights da OpenAI e de seus parceiros, como na preparação de dados para treinamento de IA.
O fato de até mesmo a Alphabet agora alertar seus funcionários sobre os chatbots, incluindo o seu próprio, mostra que até mesmo os criadores dessas novas ferramentas estão incertos sobre a confiabilidade desses sistemas. Fonte do The Decoder.