
O modelo de IA mais recente da startup chinesa DeepSeek, uma versão atualizada do modelo de raciocínio R1 da empresa, alcança pontuações impressionantes em benchmarks de programação, matemática e conhecimentos gerais – quase superando o principal modelo o3 da OpenAI. Contudo, essa versão aprimorada, também conhecida como “R1-0528”, pode ser menos inclinada a responder perguntas controversas, sobretudo aquelas sobre temas que o governo chinês considera delicados.
Isso de acordo com testes realizados por um desenvolvedor pseudônimo por trás da plataforma SpeechMap, que compara como diferentes modelos tratam assuntos sensíveis e controversos. Utilizando o nome “xlr8harder” na rede X, o desenvolvedor afirma que o R1-0528 é “substancialmente” menos permissivo em relação a temas de liberdade de expressão controversos do que as versões anteriores do DeepSeek, sendo o modelo mais censurado da empresa no que diz respeito a críticas ao governo chinês.
Como explicado pela Wired em uma matéria de janeiro, os modelos de IA na China devem seguir controles rigorosos de informação. Uma lei de 2023 proíbe que os modelos gerem conteúdos que “prejudicam a unidade do país e a harmonia social”, o que pode ser interpretado como material contrário às narrativas históricas e políticas oficiais. Para cumprir essa exigência, as startups chinesas frequentemente censuram seus modelos, utilizando desde filtros em nível de prompt até ajustes finos. Um estudo constatou que o R1 original do DeepSeek se recusa a responder a 85% das perguntas sobre assuntos considerados politicamente controversos pelo governo.
Segundo xlr8harder, o R1-0528 censura respostas a perguntas sobre temas como os campos de detenção na região de Xinjiang, onde mais de um milhão de muçulmanos uigures foram detidos arbitrariamente. Embora o modelo, em algumas ocasiões, critique aspectos das políticas governamentais – tendo mencionado os campos de Xinjiang como exemplo de violações de direitos humanos –, ele frequentemente reproduz a posição oficial do governo chinês quando questionado diretamente.
Testes realizados indicam esse mesmo padrão de resposta.
Os modelos de IA disponíveis publicamente na China, incluindo aqueles que geram vídeos – como o Magi-1 e o Kling – já haviam sido criticados anteriormente por censurarem temas sensíveis para o governo, como o massacre da Praça Tiananmen. Em dezembro, o CEO da plataforma de desenvolvimento de IA Hugging Face alertou para as consequências não intencionais das empresas ocidentais construírem sobre modelos chineses de código aberto que demonstram bom desempenho.
