Usuários do X usam Grok como verificador de fatos e geram temores quanto à desinformação
Alguns usuários da rede social de Elon Musk têm recorrido ao bot de IA Grok para realizar a verificação de informações, o que tem preocupado os verificadores humanos, que temem que essa prática possa impulsionar a disseminação de notícias falsas.
No início deste mês, o X passou a permitir que os usuários mencionem o Grok, da xAI, e façam perguntas sobre diversos assuntos. Essa iniciativa é semelhante à adotada por outros bots automatizados que oferecem uma experiência parecida aos usuários, possibilitando a investigação de comentários e questões que envolvem determinadas crenças políticas.
Os verificadores de fatos alertam quanto ao uso do Grok – ou de qualquer outro assistente de IA semelhante – nessa função. O receio é que as respostas emitidas pelo bot possam soar convincentes, mesmo quando não correspondem à realidade. Casos anteriores já demonstraram que o Grok esteve envolvido em episódios de disseminação de informações falsas e imprecisas.
No último mês de agosto do ano passado, cinco secretários de estado recomendaram que mudanças críticas fossem implementadas por Musk após a circulação de informações enganosas nas redes sociais, pouco antes de um importante processo eleitoral nos Estados Unidos.
Outros chatbots, como o ChatGPT da OpenAI e o Gemini do Google, também foram apontados por gerar informações imprecisas durante as eleições do ano passado. Pesquisas apontaram, inclusive, que assistentes de IA podem ser usados para produzir textos convincentes com narrativas enganosas.
Angie Holan, diretora da International Fact-Checking Network, afirmou que “assistentes de IA, como o Grok, são realmente bons em utilizar a linguagem natural e fornecer respostas com tom humano. Dessa forma, esses produtos ganham o mérito da naturalidade e de parecerem autênticos, mesmo quando estão potencialmente errados. Esse é o perigo”.
Diferente dos assistentes de IA, os verificadores humanos utilizam múltiplas fontes confiáveis para confirmar as informações e assumem total responsabilidade pelas suas conclusões, atrelando suas descobertas a seus nomes e instituições para garantir credibilidade.
Pratik Sinha, cofundador do site indiano de verificação de informações Alt News, destacou que, embora o Grok apresente respostas convincentes, sua eficácia depende inteiramente dos dados que recebe. Segundo ele, “quem vai decidir quais dados serão fornecidos ao Grok? É aí que entram questões como a interferência governamental. Não há transparência, e algo sem transparência pode ser moldado de diversas maneiras, prejudicando a verificação dos fatos”.
“Pode ser mal utilizado para espalhar desinformação”
Em uma resposta divulgada recentemente pelo Grok, o bot reconheceu que “pode ser mal utilizado – para espalhar desinformação e violar a privacidade”. Essa mensagem surgiu sem que o assistente apresentasse qualquer aviso aos usuários sobre a possibilidade de que as informações fornecidas possam ter sido equivocadas ou fabricadas, o que é um dos riscos inerentes à utilização de IA.
Anushka Jain, pesquisadora do coletivo multidisciplinar Digital Futures Lab, ressaltou: “Ele pode inventar informações para formular uma resposta”.
Há também dúvidas quanto à quantidade de conteúdo disponível no X que serve como base para o treinamento do Grok, bem como sobre os mecanismos de controle de qualidade empregados para checar os dados provenientes desses posts. No verão passado, houve uma mudança que aparentemente permitiu que o Grok consumisse os dados dos usuários do X por padrão.
Outro aspecto preocupante é que assistentes de IA como o Grok disponibilizam suas respostas publicamente – ao contrário de chatbots que operam de maneira privada. Mesmo que um usuário esteja ciente de que as informações podem ser imprecisas, outros na plataforma podem acabar acreditando nelas, o que pode gerar sérios impactos sociais. Por exemplo, na Índia, a circulação de informações falsas via WhatsApp já ocasionou violentos linchamentos de multidões.
“Se você ver muitas respostas do Grok, pode acabar pensando que a maioria está correta, mas existe uma parcela considerável de erros. Pesquisas apontam que modelos de IA podem ter taxas de erro de até 20%… e quando erram, os impactos podem ser reais e graves”, alerta Holan.
IA x verificadores humanos
Enquanto empresas de tecnologia, inclusive a xAI, aperfeiçoam seus modelos para que se comuniquem de forma mais natural, elas ainda não conseguem substituir os verificadores humanos. Nos últimos meses, tem-se buscado reduzir a dependência de verificadores humanos, com plataformas como o X e a Meta adotando a verificação colaborativa por meio das chamadas Community Notes.
Pratik Sinha, da Alt News, acredita que as pessoas aprenderão a distinguir as informações fornecidas por máquinas e as verificadas por humanos, valorizando a precisão dos resultados obtidos por esses profissionais. “Eventualmente, veremos um recuo no uso excessivo desses sistemas automatizados e um retorno à checagem rigorosa dos fatos”, observa Holan.
Porém, ela ressalta que, enquanto isso não ocorre, os verificadores humanos terão um trabalho ainda maior pela frente para lidar com a rápida disseminação de informações geradas por IA.