A GetReal desvendou o código dos deepfakes gerados por IA? US$18 milhões e uma lista de clientes impressionante dizem que sim

A proliferação de deepfakes assustadoramente realistas é um dos subprodutos mais perniciosos do crescimento da inteligência artificial, e cair em golpes baseados nessas falsificações já vem custando às empresas milhões de dólares – sem mencionar as implicações para a segurança nacional. Uma startup criou um conjunto de ferramentas voltado para governos e grandes organizações, com o objetivo de detectar e barrar deepfakes e personificações em áudio, vídeo e imagens, e anunciou nesta quarta-feira um aporte de capital acompanhado de investidores e clientes de peso.

A GetReal, cofundada por Hany Farid, um dos pioneiros na detecção de mídias deepfake, captou US$ 17,5 milhões em capital, recursos que serão destinados à pesquisa e desenvolvimento, à ampliação da equipe e ao desenvolvimento de negócios.

Juntamente com o investimento, a empresa lança sua plataforma de forense como serviço, que inclui uma interface web, uma API e integrações para realizar análises de mídia como serviço. Entre seus recursos, estão um painel de exposição a ameaças; a ferramenta “Inspect”, direcionada a proteger executivos de alto perfil contra falsificações; a ferramenta “Protect”, para rastrear a mídia; e o “Respond”, que conta com equipes humanas realizando análises mais aprofundadas.

Investidores do setor de cibersegurança e inteligência artificial lideram essa rodada, demonstrando que grandes players do mercado já estão atentos à importância da tecnologia desenvolvida. A GetReal foi incubada por uma das empresas chave nessa lista desde 2022, tendo emergido de modo discreto em junho de 2024, após participar de uma rodada seed anterior que contou com diversos investidores renomados. Um dos fundadores da empresa investidora também integra a diretoria da GetReal, somando experiência de gigantes do setor.

Hany como serviço

A GetReal se insere no amplo universo da cibersegurança, atuando especialmente na área em rápida evolução da ciber-forense. A lacuna que a startup, com sede em San Mateo, busca preencher é justamente a escassez de talentos e conhecimentos especializados nesse campo.

“Se você acha que a cibersegurança já sofre com a falta de profissionais, prepare-se para lidar com a forense”, afirmou Matt Moynahan, CEO da GetReal. Ele, que chegou à empresa enquanto ainda operava de forma sigilosa, conta com uma carreira de quase três décadas à frente de grandes companhias do setor, como Symantec, Arbor Networks, Veracode e Forcepoint.

“Para ser sincero, nunca presenciei uma ameaça tão onipresente”, comentou sobre a capacidade de criação e aplicação de deepfakes maliciosos. Comparando com os vírus, Moynahan ressaltou que “o que vimos nos últimos 20 anos é a migração da ameaça para o usuário final”. Aplicativos que permitem a criação de deepfakes de forma “divertida” são apenas uma parte do problema – o ambiente digital atual, com negócios virtualizados e baseados na nuvem, também pesa na equação.

O phishing, segundo ele, demonstrou o quão facilmente pessoas inteligentes podem ser enganadas, o que, somado a outros fatores, configura um sinal preocupante para o futuro. A GetReal surgiu da ideia de Hany Farid, renomado acadêmico atualmente na UC Berkeley, reconhecido como um pioneiro nas técnicas para identificar manipulações em imagens digitais – uma percepção dos riscos dos deepfakes que antecedeu a popularização do termo.

Conforme explicou em entrevistas, enquanto atuava principalmente como acadêmico e pesquisador, Farid já aplicava seus conhecimentos de forma informal para diversos setores, desde organizações de mídia até equipes jurídicas, adaptando seu trabalho às necessidades do mercado. Em 2022, ele se uniu a Ted Schlein para transformar esse processo investigativo em código, convertendo-o em um serviço escalável. “Não há ninguém que analise esses desafios da forma que o Hany faz”, ressaltou Moynahan. “Mas o Hany não consegue escalar. Por isso, basicamente, transformamos o trabalho dele em um ‘serviço Hany’ na nuvem.”

Farid também salienta que, embora a tecnologia em desenvolvimento dependa do funcionamento dos novos aplicativos – envolvendo bastante engenharia reversa – ela é sustentada por décadas de conhecimento que permanece praticamente inalterado. “Existem técnicas que desenvolvemos há 20 anos e que ainda funcionam hoje”, afirmou, sem revelar detalhes, pois “não é necessário expor tudo o que fazemos, mas é complicado acertar.”

O efeito Signal: texto a seguir

A rodada Série A anunciada também conta com importantes investidores estratégicos, entre eles grandes nomes do setor tecnológico e de investimentos, demonstrando que o produto da GetReal já despertou o interesse de empresas que atuam em setores altamente regulados, como o financeiro. Durante as investigações prévias, constatou-se que instituições deste tipo já vinham solicitando soluções para lidar com deepfakes e que os diretores de segurança buscavam atender a orientações dos conselhos de administração.

“Questões sobre personificações deepfake foram levantadas após CEOs terem participado de entrevistas de voz. Eles foram vítimas tanto da própria personificação quanto de fraudes decorrentes dela”, explicou Alberto Yépez, cofundador de uma das empresas investidoras estratégicas envolvidas. Entre os clientes já atendidos estão grandes corporações, demonstrando a abrangência e a importância da tecnologia.

No âmbito governamental, os interesses também são evidentes. Agências de inteligência e autoridades governamentais têm como prioridade evitar que informações falsificadas induzam decisões equivocadas. Embora, até o momento, as técnicas de deepfake baseadas em texto ainda não tenham sido integradas à plataforma da GetReal, o campo é reconhecido como uma ameaça emergente.

Recentemente, um episódio envolvendo um grupo de mensagens em um aplicativo de comunicação destacou como a manipulação de informações por meio de deepfakes pode causar sérias repercussões na segurança nacional. Embora o foco atual da GetReal esteja em mídias visuais e sonoras, os planos a longo prazo incluem a ampliação do escopo para englobar todos os tipos de deepfake e ameaças relacionadas à personificação.