Na quinta-feira, o presidente da Comissão Judiciária da Câmara, Jim Jordan (R-OH), enviou cartas a 16 empresas de tecnologia americanas, incluindo Google e OpenAI, solicitando comunicações anteriores com a Administração Biden que possam sugerir que o ex-presidente “coagiu ou colaborou” com as empresas para “censurar discursos lícitos” em produtos de inteligência artificial.

Os principais assessores de tecnologia da Administração Trump já haviam sinalizado que iriam confrontar as grandes empresas de tecnologia por conta da “censura na IA”, o que parece ser a próxima fase na guerra cultural entre conservadores e o Vale do Silício. Jordan já havia liderado uma investigação para apurar se a Administração Biden teria conspirado com as grandes empresas de tecnologia para silenciar vozes conservadoras nas plataformas de redes sociais. Agora, ele volta sua atenção para as empresas de IA — e seus intermediários.

Em suas cartas, dirigidas a executivos de tecnologia como o CEO do Google, Sundar Pichai, o CEO da OpenAI, Sam Altman, e o CEO da Apple, Tim Cook, Jordan citou um relatório publicado por sua comissão em dezembro, que, segundo ele, “revelou os esforços da Administração Biden-Harris para controlar a IA e suprimir discursos”.

Nesta mais recente consulta, Jordan solicitou informações de empresas como Adobe, Alphabet, Amazon, Anthropic, Apple, Cohere, IBM, Inflection, Meta, Microsoft, Nvidia, OpenAI, Palantir, Salesforce, Scale AI e Stability AI, tendo como prazo o dia 27 de março para o envio dos dados.

O TechCrunch entrou em contato com as empresas para obter comentários, mas a maioria não respondeu de imediato. Nvidia, Microsoft e Stability AI preferiram não comentar.

Há uma omissão notável na lista de Jordan: o laboratório de IA frontier do bilionário Elon Musk, xAI. Isso pode dever-se ao fato de Musk, um aliado próximo de Trump, estar na vanguarda das discussões sobre a censura na IA.

Desde já, parecia evidente que legisladores conservadores intensificariam a fiscalização sobre alegadas censuras na área da IA. Talvez antecipando uma investigação semelhante à de Jordan, diversas empresas de tecnologia ajustaram a forma como seus chatbots de IA lidam com consultas politicamente sensíveis.

No início deste ano, a OpenAI anunciou que estava alterando a maneira de treinar seus modelos de IA para representar uma gama maior de perspectivas e garantir que o ChatGPT não censurasse determinados pontos de vista. A empresa nega que isso tenha sido uma tentativa de agradar a Administração Trump, afirmando tratar-se de um esforço para reforçar seus valores essenciais.

Por sua vez, a Anthropic comunicou que seu mais novo modelo de IA, o Claude 3.7 Sonnet, passará a recusar responder a menos perguntas e oferecer respostas mais nuançadas sobre temas controversos.

Outras empresas têm demorado mais para mudar a forma como seus modelos de IA abordam assuntos políticos. Antes da eleição de 2024 nos EUA, o Google afirmou que seu chatbot Gemini não responderia a consultas de cunho político. Mesmo depois da eleição, constatou-se que o chatbot não respondia de maneira consistente a perguntas simples sobre política, como “Quem é o atual presidente?”

Alguns executivos de tecnologia, incluindo o CEO do Meta, Mark Zuckerberg, contribuíram para as acusações conservadoras de censura no Vale do Silício, afirmando que a Administração Biden os teria pressionado a suprimir certos conteúdos, como informações equivocadas sobre a COVID-19.