Os Tweets Mais Engraçados da Grok AI Sobre “Genocídio Branco” na África do Sul

A inteligência artificial de Elon Musk, a Grok, enlouqueceu na plataforma X nesta quarta-feira, respondendo a consultas aparentemente inócuas sobre assuntos como beisebol e cachorrinhos com informações sobre a África do Sul e uma teoria conspiratória chamada “genocídio branco”.

Não está claro por que a Grok resolveu inserir sempre referências ao “genocídio branco” – a falsa ideia de que pessoas brancas estão sendo sistematicamente exterminadas por indivíduos não-brancos ao redor do mundo. Musk, que cresceu na África do Sul durante o apartheid, ajudou a disseminar essa teoria absurda, mas ainda não se sabe se ele teria adulterado o projeto de sua IA para que ela se alinhasse à sua visão de mundo.

Observa-se, inclusive, que:

  • “Genocídio branco” é uma ideia infundada promovida por nazistas e supremacistas brancos;
  • Musk é um bilionário que tenta influenciar a opinião pública para tornar suas crenças extremistas mais aceitáveis;
  • O caso se torna ainda mais cômico diante dos erros cometidos pela IA.

Com isso em mente, separamos alguns dos momentos mais inusitados registrados na quarta-feira – muitos deles posteriormente removidos pela plataforma – para ilustrar esse episódio embaraçoso.

Em diversas situações, a Grok inseriu a temática do “genocídio branco” em respostas inesperadas. Por exemplo, quando solicitada a responder no estilo do personagem Jar-Jar Binks, da saga Star Wars, a IA elaborou uma resposta normal e, logo em seguida, lançou comentários sobre a África do Sul e genocídio. Em outra ocasião, ao explicar em “termos de Fortnite” uma mensagem de paz proferida por um personagem religioso, a Grok transformou o conteúdo em uma narrativa que incluía, curiosamente, referências à música “Kill the Boer”.

Houve também pedidos para transformar um tweet sobre crocs em um haikai, onde, depois da parte tradicional, a resposta passou a tratar do “genocídio branco”.

Usuários compartilharam diversas screenshots das respostas mais absurdas. Em um episódio, mesmo após a IA se desculpar por um erro, ela retomou imediatamente o assunto, reiterando as menções ao genocídio branco sem se afastar do tema.

Algumas teorias sugerem que a própria Grok possa ter sido treinada para responder de forma específica sobre esse tema, mas é importante lembrar que esses chatbots não são capazes de raciocinar. Eles funcionam como autocompletes sofisticados, elaborando frases com base no vasto acervo do conhecimento humano, sem realmente compreender o que estão dizendo.

Esse episódio evidencia as limitações das tecnologias de inteligência artificial generativa, que ainda não possuem a capacidade de pensar de forma autônoma, mas sim de simplesmente reproduzir padrões de linguagem. O caso do “genocídio branco” serve como lembrete de que, em determinadas situações, a IA pode desviar seu foco e surpreender de maneira desconcertante.