Publicado: 10:51 AM PDT · 31 de maio de 2025

Um sistema impulsionado por inteligência artificial pode, em breve, assumir a responsabilidade de avaliar os potenciais danos e riscos de privacidade de até 90% das atualizações realizadas nos aplicativos da Meta, como Instagram e WhatsApp, de acordo com documentos internos supostamente vistos pela NPR.
A NPR informa que um acordo de 2012 entre o Facebook (atualmente Meta) e a Federal Trade Commission determina que a empresa realize revisões de privacidade de seus produtos, avaliando os riscos de quaisquer atualizações potenciais. Até o momento, essas avaliações eram, em sua maioria, conduzidas por avaliadores humanos.
No novo sistema, a Meta teria afirmado que as equipes de produto serão solicitadas a preencher um questionário sobre seu trabalho, recebendo, na maioria das vezes, uma “decisão instantânea” com os riscos identificados pela inteligência artificial, além dos requisitos que uma atualização ou funcionalidade deve cumprir antes de ser lançada.
Essa abordagem centrada na inteligência artificial permitiria que a Meta atualizasse seus produtos mais rapidamente, mas um ex-executivo alertou à NPR que ela também pode gerar “riscos mais elevados”, já que “as externalidades negativas das mudanças nos produtos têm menos chance de serem evitadas antes de começarem a causar problemas” no mundo.
Em comunicado, a Meta parece ter confirmado que está alterando seu sistema de revisão, enfatizando que apenas decisões de baixo risco serão automatizadas, enquanto a experiência humana continuará sendo utilizada para analisar questões novas e complexas.