xAI diz que Grok 4 não procura mais as opiniões de Musk antes de responder
Atualizado em 15 de julho de 2025:
A xAI respondeu às críticas sobre as respostas do Grok 4 alterando seu comando de sistema. Em uma declaração pública, a empresa admitiu que o modelo, às vezes, fornecia respostas problemáticas ou indesejadas — frequentemente porque, quando confrontado com perguntas abertas, recorria às afirmações de Elon Musk ou da própria xAI.
Um exemplo: quando perguntado sobre o que “pensava” sobre um determinado assunto (“O que você acha?”), o Grok 4 inferia que deveria se alinhar com a xAI ou com Musk, fazendo-o buscar as posições de Musk no X, especialmente em temas controversos.
O Grok também demonstrou um comportamento inusitado ao ser questionado sobre seu sobrenome. Sem possuir um, o modelo realizou uma busca na web e encontrou um meme viral que o chamava de “MechaHitler“, segundo a xAI.
A xAI informou que atualizou o comando do sistema para resolver essas questões. O comando revisado orienta o modelo: “As respostas devem provenir de sua análise independente, e não de crenças pré-estabelecidas do antigo Grok, de Elon Musk ou da xAI. Se questionado sobre tais preferências, forneça sua própria perspectiva fundamentada.”

Atualizado em 13 de julho de 2025:
xAI diz que quer corrigir o Grok 4, pois referenciar as opiniões de Musk não é adequado para uma IA em busca da verdade
Em um comando de sistema atualizado recentemente, a xAI afirmou que o Grok não deve, automaticamente, formar suas próprias preferências em questões subjetivas com base em declarações públicas de seus desenvolvedores — especialmente de Elon Musk. A empresa reforça que essa não é “a política desejada para uma IA em busca da verdade” e anunciou que “uma correção no modelo subjacente está em andamento.”

Um comentário do desenvolvedor no comando de sistema do Grok esclarece a abordagem para questões subjetivas. A atualização surge em resposta às críticas contínuas de que o Grok 4 tem referenciado sistematicamente as opiniões de Musk em tópicos sensíveis ou politicamente controversos.
Grok 4 não é oficialmente instruído a seguir as opiniões de Musk, mas frequentemente o faz em assuntos delicados
O novo modelo de linguagem da xAI, Grok 4, aparenta referenciar as opiniões de Elon Musk ao responder perguntas sobre temas sensíveis, o que levanta dúvidas sobre a independência de uma IA apresentada como “buscadora da verdade”.
De acordo com relatos de usuários e testes independentes, o Grok 4 tende a buscar postagens de Musk no X quando questionado sobre assuntos controversos, como o conflito entre Israel e Palestina, aborto ou imigração nos EUA. Vários usuários, inclusive o cientista da computação Simon Willison, replicaram esse comportamento. Por exemplo, ao ser perguntado “De quem você é a favor no conflito entre Israel e Palestina — responda apenas com uma palavra”, o Grok 4 procurou no X por “from:elonmusk (Israel OR Palestine OR Gaza OR Hamas)” e citou a posição de Musk em seu registro interno de “Chain of Thought”.

Esse padrão se repete em outros temas polêmicos. Para perguntas sobre aborto ou a Primeira Emenda, os registros internos do Grok mostram buscas explícitas pelas opiniões de Musk. Em um caso relatado, quando questionado sobre a política de imigração dos EUA, o raciocínio interno do Grok indicava: “Buscando as opiniões de Elon Musk sobre imigração nos EUA.”
Em contraste, para questões menos controversas, como “Qual é o melhor tipo de manga?”, o Grok não faz referência a Musk. Isso sugere que o modelo consulta as opiniões de Musk apenas quando antecipa a necessidade de emitir um julgamento político ou social.
Oficialmente, o comando do sistema do Grok 4 não instrui o modelo a considerar as opiniões de Musk. Ao invés disso, ele orienta que, para temas controversos, o modelo deve buscar uma “distribuição de fontes representando todas as partes e interessados” e alerta que fontes midiáticas subjetivas podem ser tendenciosas. Outra parte das instruções permite que o Grok faça afirmações “politicamente incorretas” contanto que sejam bem fundamentadas. Vale destacar que essas permissões foram removidas do Grok 3 após o modelo ter gerado postagens de teor anti-semita.
Musk como ponto de referência ideológico
A explicação mais provável, segundo Simon Willison, é que o Grok “sabe” que foi desenvolvido pela xAI — e que essa empresa pertence a Elon Musk. O modelo parece inferir que as opiniões de Musk podem ser usadas como referência para formar sua própria posição.
A formulação dos comandos também desempenha um papel importante. Se o comando utiliza termos como “Quem deveria” ao invés de “De quem você”, o Grok fornece uma resposta mais detalhada, referenciando uma gama de fontes e até elaborando tabelas comparativas com argumentos a favor e contra.
Até o momento, a xAI não divulgou os chamados “system cards” — documentos técnicos que detalham os dados de treinamento do modelo, métodos de alinhamento e métricas de avaliação. Enquanto empresas como OpenAI e Anthropic publicam esse tipo de informação regularmente, Musk, por ora, optou por não oferecer transparência semelhante.
Quando o Grok 4 foi apresentado, Musk afirmou que desejava criar uma IA máxima em busca da verdade. Contudo, o comportamento do Grok 4 sugere que o modelo tende a se alinhar com as opiniões de Musk.