xAI culpa alteração “não autorizada” no prompt do sistema pelo surto de “genocídio branco” de Grok
Atualização – 16 de maio de 2025
Assim como no incidente de fevereiro, a xAI atribui as recentes declarações politicamente tendenciosas do Grok a uma “modificação não autorizada” do prompt do sistema. Em uma declaração publicada em 16 de maio, a empresa informou que a alteração ocorreu nas primeiras horas de 14 de maio. De acordo com a xAI, essa modificação fez com que o Grok gerasse respostas carregadas de teor político sobre “genocídio branco”, o que violou as diretrizes internas e os valores fundamentais da empresa. O prompt já foi restaurado à sua versão anterior.
A xAI havia feito uma alegação semelhante durante o incidente de fevereiro, responsabilizando um ex-funcionário da OpenAI pela mudança anterior.
Para aumentar a transparência, a xAI anunciou que começará a publicar todos os prompts do sistema no GitHub. A empresa também planeja implementar processos de revisão mais rigorosos para impedir que funcionários realizem alterações não autorizadas, além de estabelecer uma equipe de monitoramento 24 horas por dia para responder com maior rapidez quando o Grok apresentar respostas questionáveis.
No entanto, o prompt do sistema não é a única forma de influenciar o comportamento de um chatbot. Testes realizados em abril indicam que o Grok já não repete mais sua crítica anterior a Elon Musk e Donald Trump como principais fontes de desinformação na plataforma X — mesmo com o prompt inalterado, segundo a xAI. Isso sugere que a empresa pode estar utilizando outros mecanismos de controle, como a calibração da probabilidade de saída ou o ajuste fino do modelo no servidor, para direcionar o comportamento do Grok. Um pedido por mais transparência sobre esses mecanismos adicionais foi resumido com um “Bom ponto” pelo engenheiro da xAI, Igor Babuschkin.
Artigo de 15 de maio de 2025
O chatbot Grok está novamente operando sob a aparente direção política de Elon Musk
Grok, o chatbot de inteligência artificial da empresa xAI, de Elon Musk, tem chamado atenção por fornecer respostas bizarras e não solicitadas sobre “genocídio branco” na África do Sul — mesmo quando as perguntas não têm relação com esse tema.
Usuários na plataforma X relataram que o Grok frequentemente responde a solicitações não relacionadas com longas explicações sobre o suposto “genocídio branco” na África do Sul, ecoando uma teoria conspiratória de extrema-direita. Em um caso, alguém perguntou ao Grok sobre a imagem de um cachorro e recebeu uma resposta extensa acerca dos supostos assassinatos racialmente motivados de fazendeiros brancos sul-africanos. Em outra ocasião, um simples pedido de informações sobre o desempenho de um jogador de beisebol resultou em uma prolongada dissertação sobre “genocídio branco”.

O Grok se desvia do assunto, trazendo à tona o alegado “genocídio branco” na África do Sul em respostas a questões que não têm relação com o tema. Usuários apontaram à CNBC que o chatbot insistia na menção do assunto mesmo quando as perguntas tratavam de desenhos animados ou paisagens, e apesar das tentativas de correção, o Grok logo retornava ao tema do “genocídio branco”.
Em um diálogo, o chatbot reconheceu que suas respostas fora do contexto “não eram ideais”, porém logo retomou a discussão sobre a situação na África do Sul. Em diversas ocasiões, chegou a afirmar que fora programado para tratar o “genocídio branco” como um fato real e chegou a classificar a música “Kill the Boer” como racialmente motivada.

Em outras respostas, o Grok descreveu o tema como “complexo” ou “polêmico”, citando fontes que pesquisadores anti-racismo consideram pouco confiáveis. Elon Musk tem reiteradamente alimentado o debate sobre as alegações de “genocídio branco”, reforçando essa narrativa.
O comportamento foi documentado pela primeira vez em 14 de maio pelo repórter investigativo Aric Toler, do The New York Times. Tanto o Gizmodo quanto a CNBC confirmaram, de forma independente, esse padrão. Desde então, a plataforma X parece ter removido sistematicamente as respostas relevantes do Grok. Enquanto isso, o CEO da OpenAI, Sam Altman, fez declarações públicas provocativas contra a xAI, evidenciando o que muitos interpretam como uma tentativa descarada de manipulação política.

O fluxo contínuo dessas “coincidências” levanta questionamentos sobre se o Grok está sendo deliberadamente orientado nessa direção — especialmente considerando o histórico da xAI de intervir no comportamento do chatbot.
Recentemente, o Grok ganhou manchetes ao identificar Musk e Trump como principais fontes de desinformação na plataforma X, apenas para ver suas respostas posteriormente atenuadas. A xAI admitiu, então, ter alterado os prompts do sistema do Grok para proteger Musk e Trump dessas acusações, supostamente devido a ações internas não intencionais por parte de um ex-integrante da equipe da OpenAI.
No entanto, mesmo após a remoção dos prompts censurados, as respostas do Grok às mesmas perguntas continuaram a ser suavizadas ou qualificadas, e o chatbot passou a utilizar uma linguagem mais cautelosa ao abordar temas como mudanças climáticas ou a visão de Trump sobre a democracia. A atual fixação do Grok no “genocídio branco” se enquadra nesse padrão, lançando mais dúvidas sobre a missão tão anunciada da xAI de buscar uma “verdade incontestável”.
De modo geral, o Grok possui um histórico de disseminação de informações falsas, embora, no passado, limitações técnicas possam ter desempenhado um papel maior do que a manipulação deliberada. Essa realidade, entretanto, pode estar mudando.