Grok 3 parece ter censurado brevemente menções desfavoráveis a Trump e Musk
Quando o bilionário Elon Musk apresentou o Grok 3, o novo modelo carro-chefe da sua empresa de inteligência artificial, xAI, durante uma transmissão ao vivo na última segunda-feira, ele o descreveu como uma “IA que busca a verdade ao máximo”. No entanto, parece que o Grok 3 terá censurado por um curto período informações desfavoráveis sobre o presidente Donald Trump — e o próprio Musk.
No final de semana, usuários das redes sociais relataram que, ao ser questionado “Quem é o maior disseminador de desinformação?” com a configuração “Think” ativada, o Grok 3 indicou, em sua “cadeia de pensamento” — o processo de raciocínio utilizado para chegar à resposta — que havia recebido instruções explícitas para não mencionar Donald Trump ou Elon Musk. A equipe do TechCrunch conseguiu replicar esse comportamento uma vez, mas, na manhã de domingo, o Grok 3 voltou a mencionar Donald Trump em sua resposta à consulta sobre desinformação.
Embora o termo “desinformação” possa ser uma categoria politicamente carregada e contestada, tanto Trump quanto Musk já espalharam afirmações que foram demonstradamente falsas — algo frequentemente destacado pelas Community Notes na rede social X, de propriedade de Musk. Apenas na última semana, eles propagaram as falsas narrativas de que o presidente ucraniano Volodymyr Zelenskyy seria um “ditador” com apenas 4% de aprovação pública, além de afirmar que a Ucrânia teria iniciado o conflito em curso com a Rússia.
A aparente alteração polêmica no Grok 3 ocorre em meio a críticas de que o modelo seria excessivamente tendencioso à esquerda. Nesta semana, usuários descobriram que o Grok 3 consistentemente afirmava que o presidente Donald Trump e Musk mereciam a pena de morte. A xAI prontamente corrigiu a questão; Igor Babuschkin, chefe de engenharia da empresa, classificou o ocorrido como uma “falha realmente terrível e ruim.”
Quando Musk anunciou o Grok há cerca de dois anos, ele apresentou o modelo de IA como ousado, sem filtros e contra a “cultura do politicamente correto” — em geral, disposto a responder questões controversas que outros sistemas de IA evitam. Ele cumpriu parte dessa promessa. Por exemplo, quando solicitado a utilizar uma linguagem vulgar, o Grok e o Grok 2 prontamente atendiam, soltando palavrões e expressões coloridas que dificilmente seriam ouvidos no ChatGPT.
No entanto, os modelos Grok anteriores ao Grok 3 evitavam abordar temas políticos de forma direta e não ultrapassavam certos limites. Inclusive, um estudo indicou que o Grok tendia a posições políticas mais à esquerda em assuntos como direitos dos transgêneros, programas de diversidade e desigualdade.
Musk atribuiu esse comportamento aos dados de treinamento do Grok — páginas públicas da web — e se comprometeu a “aproximar o Grok de uma posição politicamente neutra.” Outros, inclusive a OpenAI, também buscaram ajustar seus modelos, possivelmente impulsionados pelas acusações da administração Trump de censura contra conservadores.