Desafios na Checagem de Fatos com Inteligência Artificial
Desde o lançamento do chatbot Grok, da xAI, em novembro de 2023, e a sua disponibilização para todos os usuários não-premium em dezembro de 2024, milhares de pessoas na plataforma X (antigo Twitter) passam a utilizá-lo para realizar checagens rápidas de informações que circulam online.
Uso de Ferramentas de IA na Busca por Informações
Uma pesquisa realizada por uma publicação britânica de tecnologia revelou que 27% dos americanos já recorreram a ferramentas de inteligência artificial, como o ChatGPT da OpenAI, o Meta AI, o Gemini da Google, o Copilot da Microsoft ou aplicativos como o Perplexity, em substituição aos buscadores tradicionais, como Google ou Yahoo.
Erros e Inconsistências Detectados
Contudo, a experiência com o Grok mostra que há desafios na verificação de fatos quando envolvem conteúdos gerados por IA. Em um caso recente, uma imagem com diversas inconsistências – como a inversão das caudas de aviões e jatos de água ilógicos de mangueiras – não foi corretamente identificada como resultado de inteligência artificial pelo Grok, apesar dos erros aparentes.
De forma similar, um vídeo viral que supostamente mostrava uma anaconda gigantesca na Amazônia, com dimensões que ultrapassavam os 150 metros, foi considerado real pelo Grok, mesmo após a identificação de marcas que evidenciavam a origem artificial do conteúdo, incluindo uma marca d’água do ChatGPT.
O Caminho para uma Verificação Mais Confiável
Os incidentes citados ressaltam que, embora as ferramentas de inteligência artificial representem um avanço significativo para a checagem rápida de fatos, ainda precisam aperfeiçoar seus métodos para garantir a precisão das informações. A confiança nesses sistemas depende de melhorias contínuas na capacidade de identificar e corrigir conteúdos gerados de forma equivocada, evitando a propagação de dados imprecisos ou falsos.