Diretrizes vazadas do chatbot da Meta se alinham com a postura da empresa contra a chamada “IA Woke”

As diretrizes internas vazadas permitiam conteúdos racistas e sexualizados, incluindo conversas “sensuais” com crianças, enquanto a empresa tentava resolver reclamações sobre o que chamam de “IA woke”.

De acordo com Reuters, as regras internas para os chatbots de IA da Meta permitiam cenários como diálogos românticos ou “sensuais” com menores. Os exemplos incluíam descrever uma criança de oito anos como uma “obra de arte” ou classificar seu corpo como um “tesouro”.

O documento, com mais de 200 páginas e intitulado “GenAI: Content Risk Standards”, detalha os tipos de conteúdo que os chatbots, como o Meta AI, podem gerar no Facebook, Instagram e WhatsApp. Essas normas foram aprovadas pelas equipes jurídica, de políticas e de tecnologia da empresa, com anuência do principal eticista da Meta.

Um porta-voz da Meta afirmou que esse tipo de conteúdo era “incompatível com nossas políticas” e “nunca deveria ter sido permitido”, mas reconheceu que a aplicação dessas regras era inconsistente. Segundo a empresa, essas passagens só foram removidas após a denúncia feita pela Reuters, e uma versão atualizada das diretrizes ainda não foi divulgada.

As mesmas normas permitiam também algumas manifestações de caráter racista. Por exemplo, os chatbots podiam afirmar que “pessoas negras são menos inteligentes que pessoas brancas”, contanto que a linguagem não chegasse a ser explicitamente desumanizante, sendo que expressões ofensivas, como “macacos sem cérebro”, eram vedadas. A Meta não quis comentar esses detalhes.

Embora os chatbots sejam impedidos de fornecer aconselhamento jurídico ou médico definitivo, as diretrizes possibilitam que eles divulguem outros tipos de informações falsas, desde que identificadas como tal. Por exemplo, é permitido a criação de um artigo que afirme, de forma inverídica, que um membro da realeza britânica possui uma doença sexualmente transmissível, desde que acompanhado de um aviso.

No que se refere à geração de imagens, as regras autorizam a criação de cenas violentas, desde que não sejam excessivamente gráficas. Assim, um cenário em que um homem ameaça uma mulher com uma motosserra é permitido, mas representações de desmembramento não são aceitas.

Combate à “IA woke” e intervenção política

Apesar das normas permissivas, a Meta demonstra preocupação de que sua inteligência artificial ainda seja considerada excessivamente “woke”. Recentemente, a empresa contratou o ativista conservador Robby Starbuck como consultor para lidar com o “viés político” presente na tecnologia, conforme informações do Mashable.

Starbuck não é especialista em IA, mas é conhecido por sua oposição às iniciativas de diversidade, equidade e inclusão (DEI). Ele já atuou como conselheiro da administração Trump e possui ligações com a Heritage Foundation. A contratação ocorreu após um chatbot ter afirmado equivocadamente que ele estava envolvido nos acontecimentos do ataque ao Capitólio em 6 de janeiro.

Essa decisão acontece em meio aos esforços da administração Trump para implementar regulamentações que obrigariam empresas de IA com contratos governamentais nos Estados Unidos a utilizarem modelos de IA politicamente “neutros”. Na prática, essa “neutralidade” é vista como uma estratégia para direcionar os sistemas de IA a refletirem os pontos de vista preferidos pela administração.

Pesquisas têm demonstrado que a maioria dos grandes modelos de linguagem adota posições liberais em temas políticos, especialmente após processos de ajuste fino. Esse viés tem sido observado inclusive em modelos de plataformas de perfil conservador, como o xAI, de Elon Musk. Em alguns casos, intervenções manuais levaram esses modelos a disseminar teorias da conspiração, gerar conteúdos antissemitas ou até mesmo elogiar figuras históricas controversas.