OpenAI Descobre Evidências de Ferramenta de Vigilância Chinesa Potencializada por I.A.

Na última sexta-feira, a OpenAI revelou ter encontrado evidências de que uma operação de segurança chinesa desenvolveu uma ferramenta de vigilância, alimentada por inteligência artificial, capaz de gerar relatórios em tempo real sobre postagens anti-chinesas em serviços de redes sociais nos países ocidentais.

Os pesquisadores da empresa identificaram essa nova campanha, batizada de “Peer Review”, pois, durante o processo de depuração do código, alguém envolvido no desenvolvimento da ferramenta utilizou tecnologias da OpenAI.

Detalhes da Descoberta

Ben Nimmo, investigador principal da OpenAI, afirmou que essa é a primeira vez que a companhia se depara com uma ferramenta de vigilância desse tipo, potencializada por inteligência artificial.

“Os agentes mal-intencionados às vezes nos oferecem uma visão do que estão fazendo em outras partes da internet por meio da forma como utilizam nossos modelos de I.A.”, explicou Nimmo.

Em meio ao crescente receio de que a inteligência artificial seja utilizada para vigilância, invasão de sistemas, campanhas de desinformação e outros fins maliciosos, os pesquisadores ressaltam que essa mesma tecnologia também pode contribuir para identificar e prevenir tais comportamentos.

Utilização de Tecnologia Open Source

Nimmo e sua equipe acreditam que a ferramenta de vigilância chinesa faz uso da tecnologia Llama, uma plataforma de I.A. desenvolvida pela Meta, que disponibilizou seu código-fonte para a comunidade de desenvolvedores global.

Outras Campanhas Relacionadas

Em um relatório detalhado sobre o uso da inteligência artificial para fins maliciosos e enganosos, a OpenAI revelou que também identificou outra campanha, denominada “Sponsored Discontent”. Essa iniciativa teria utilizado as tecnologias da empresa para gerar postagens em inglês criticando dissidentes chineses.

Além disso, o mesmo grupo, segundo a OpenAI, utilizou a tecnologia para traduzir artigos para o espanhol, os quais foram distribuídos na América Latina com críticas dirigidas à sociedade e à política dos Estados Unidos.

Em um caso separado, pesquisadores da OpenAI detectaram uma campanha, supostamente baseada no Camboja, que empregava suas tecnologias para gerar e traduzir comentários em redes sociais. Tais comentários, produzidos por inteligência artificial, seriam utilizados para atrair homens à internet e envolvê-los em um esquema de investimentos fraudulento conhecido como “pig butchering”.

Considerações Finais

O episódio evidencia a versatilidade das tecnologias de inteligência artificial, que podem ser empregadas tanto para potencializar operações de vigilância e campanhas desinformativas quanto para combater essas mesmas práticas. Essa descoberta reforça a importância de um uso ético e responsável da I.A., bem como de políticas rigorosas de segurança cibernética para mitigar riscos emergentes.

Publicado em 21 de fevereiro de 2025, este artigo destaca as implicações do avanço tecnológico no cenário global de segurança e vigilância.