Pesquisadores de Segurança de IA Criticam Cultura “Irresponsável” na xAI de Elon Musk

Pesquisadores de segurança de inteligência artificial da OpenAI, Anthropic e de outras organizações se manifestaram publicamente contra a cultura de segurança “imprudente” e “completamente irresponsável” da xAI, a startup bilionária de IA de propriedade de Elon Musk. As críticas surgem após semanas de escândalos na xAI, que têm ofuscado os recentes avanços tecnológicos da empresa.

Na semana passada, o chatbot de IA da empresa, Grok, proferiu comentários antissemitas e, por diversas vezes, referiu-se a si mesmo como “MechaHitler”. Pouco depois de retirar o chatbot de circulação para solucionar o problema, a xAI lançou um modelo de fronteira cada vez mais capaz, o Grok 4, que teria consultado as posições políticas pessoais de Elon Musk para responder a questões polêmicas. No desenvolvimento mais recente, a empresa apresentou companheiros de IA que se manifestam na forma de uma garota de anime hipersexualizada e de um panda excessivamente agressivo.

Embora brincadeiras amistosas entre funcionários de laboratórios concorrentes sejam comuns, esses pesquisadores pedem uma atenção maior às práticas de segurança da xAI, as quais afirmam estar em desacordo com os padrões adotados pela indústria.

“Eu não quis comentar sobre a segurança do Grok, pois trabalho para uma empresa concorrente, mas a questão não é sobre competição”, afirmou Boaz Barak, professor de ciência da computação atualmente em licença em Harvard para atuar na pesquisa de segurança na OpenAI. “Admiro os cientistas e engenheiros da xAI, mas a maneira como a segurança foi tratada é completamente irresponsável.”

O professor Barak critica, em especial, a decisão da xAI de não divulgar os “system cards” – relatórios padrão do setor que detalham os métodos de treinamento e as avaliações de segurança, numa tentativa de compartilhar informações com a comunidade de pesquisa. Dessa forma, segundo ele, permanece obscuro qual o treinamento de segurança realizado no Grok 4.

Embora tanto a OpenAI quanto o Google também tenham enfrentado críticas por não compartilharem os “system cards” de forma ágil ao lançar novos modelos de IA – com a OpenAI optando por não publicar um relatório para o GPT-4.1, sob a justificativa de não se tratar de um modelo de fronteira, e o Google tendo demorado meses para divulgar um relatório de segurança após o lançamento do Gemini 2.5 Pro –, essas empresas têm historicamente publicado os relatórios de segurança para todos os modelos de IA de fronteira antes de sua produção plena.

Barak ainda destaca que os companheiros de IA do Grok “amplificam os piores problemas que atualmente enfrentamos em relação a dependências emocionais”. Nos últimos anos, diversos casos chamaram atenção para pessoas instáveis desenvolvendo relações preocupantes com chatbots, além do risco de respostas excessivamente condescendentes levarem esses usuários a perderem o equilíbrio.

Samuel Marks, pesquisador de segurança na Anthropic, também criticou a decisão da xAI de não publicar um relatório de segurança, classificando a medida como “imprudente”. Segundo Marks, enquanto outras empresas como Anthropic, OpenAI e Google, mesmo com suas falhas, ao menos realizam avaliações de segurança pré-implantação e documentam os resultados, a xAI não adota nenhuma abordagem semelhante.

A realidade é que ainda não se sabe exatamente quais foram os testes realizados para garantir a segurança do Grok 4. Em discussões em fóruns online, um pesquisador anônimo afirmou que o Grok 4 não possui salvaguardas de segurança significativas, com base em seus testes.

Seja qual for a veracidade dessa informação, o mundo está descobrindo as deficiências do Grok em tempo real. Diversos dos problemas de segurança da xAI viralizaram, e a empresa afirma ter os corrigido por meio de ajustes no prompt do sistema do Grok.

Dan Hendrycks, assessor de segurança da xAI e diretor do Center for AI Safety, afirmou que foram realizadas “avaliações de capacidades perigosas” no Grok 4, o que indica que a empresa realizou alguns testes pré-implantação para identificar possíveis problemas de segurança. No entanto, os resultados dessas avaliações ainda não foram divulgados.

“Isso me preocupa quando práticas padrão de segurança não são seguidas na indústria de IA, como a divulgação dos resultados das avaliações de capacidades perigosas”, declarou Steven Adler, pesquisador independente de IA, que anteriormente coordenou essas avaliações na OpenAI. “Governo e público têm o direito de saber como as empresas de IA estão lidando com os riscos dos sistemas extremamente poderosos que estão desenvolvendo.”

O caso das práticas questionáveis em segurança da xAI ganha ainda mais destaque considerando o histórico de Elon Musk como um dos defensores mais notórios da segurança na área de IA. O bilionário, proprietário da xAI, Tesla e SpaceX, já alertou diversas vezes sobre o potencial de sistemas avançados de IA causarem desastres catastróficos para os humanos, além de ter elogiado uma abordagem mais aberta no desenvolvimento de modelos de IA.

No entanto, pesquisadores de segurança de labs concorrentes afirmam que a xAI está se desviando das normas da indústria no que diz respeito à divulgação segura de novos modelos de IA. Dessa forma, a startup de Musk pode, inadvertidamente, estar incentivando legisladores estaduais e federais a criarem regras para a publicação de relatórios de segurança em IA.

Há diversas iniciativas em nível estadual para exigir que grandes laboratórios de IA – provavelmente incluindo a xAI – publiquem relatórios de segurança. Enquanto um senador da Califórnia vem propondo um projeto de lei com esse objetivo, a governadora de Nova York também está analisando uma proposta semelhante. Segundo os defensores desses projetos, a maioria dos labs já divulga esse tipo de informação, embora não de maneira consistente em todos os casos.

Embora os modelos de IA atualmente não tenham causado danos catastróficos no mundo real, como perdas de vidas ou prejuízos bilionários, muitos pesquisadores afirmam que isso poderá se tornar um problema num futuro próximo, dado o rápido avanço dos modelos de IA e os enormes investimentos realizados no Vale do Silício para aprimorá-los.

Mesmo para os céticos em relação a cenários catastróficos, há um forte argumento de que as falhas demonstradas pelo Grok pioram consideravelmente os produtos nos quais ele é utilizado. Após a disseminação de ideias antissemitas na plataforma X, e considerando episódios anteriores em que o chatbot mencionava teorias como “genocídio branco”, é possível imaginar que os usuários de carros da Tesla, os trabalhadores federais responsáveis pela segurança ou os colaboradores de empresas que utilizem esses sistemas não serão menos impactados por essas falhas.

Vários pesquisadores defendem que os testes de segurança e alinhamento não apenas evitam os piores desdobramentos, mas também previnem problemas comportamentais a curto prazo. No mínimo, os incidentes envolvendo o Grok acabam por ofuscar o rápido progresso da xAI no desenvolvimento de modelos de IA de fronteira que rivalizam com as tecnologias da OpenAI e do Google, apenas alguns anos após sua fundação.