Google DeepMind Desvenda Estrutura para Explorar as Fraquezas Cibernéticas da IA
Uma defesa robusta se fundamenta em atacar os pontos fracos do inimigo. A Google DeepMind desenvolveu uma estrutura de avaliação que identifica as áreas onde a IA adversária apresenta maior vulnerabilidade, permitindo que os defensores priorizem de maneira mais eficiente suas estratégias de proteção.
Atuando na vanguarda da inteligência artificial – o que a empresa denomina como Frontier AI –, a DeepMind investiga o caminho rumo à inteligência artificial geral (AGI), na qual as máquinas serão capazes de raciocinar por si mesmas. Em um novo relatório, a equipe analisa o uso da IA em ciberataques e os métodos atualmente empregados para avaliar tais ataques. O estudo aponta que os frameworks de avaliação existentes são ad hoc, ou seja, não seguem uma sistemática estruturada e, como resultado, não provêm aos defensores indicações úteis para direcionar suas respostas.
As estruturas atuais se concentram em aspectos bem conhecidos da assistência adversária – como o aprimoramento de capacidades, aumento do volume de ataques e automação –, mas deixam de oferecer suporte para a priorização das respostas a ataques centrados na IA. Segundo a DeepMind, há uma carência de atenção em fases críticas como evasão, esquiva de detecção, ofuscação e persistência. Essas etapas, embora frequentemente subestimadas, podem representar ameaças significativas se aprimoradas pela inteligência artificial.
Para preencher essa lacuna, a equipe desenvolveu uma estrutura capaz de avaliar de maneira completa o ciclo de vida dos ciberataques assistidos por IA, identificando os pontos onde a mitigação defensiva pode ser mais efetiva. O estudo analisou mais de 12.000 tentativas reais de utilização de IA em ciberataques, reunindo dados de mais de 20 países. A partir dessa análise, foram identificados diversos arquétipos na cadeia de ataque e realizados estudos de gargalo, culminando na elaboração de uma lista com 50 desafios que precisam ser enfrentados.
“Consideramos as etapas do ataque que historicamente se mostraram gargalos devido à dependência da criatividade humana, à intensiva demanda de trabalho manual ou à necessidade de habilidades especializadas”, esclarece o relatório. Para cada um desses pontos críticos, a avaliação investigou o potencial da IA em automatizar ou reforçar tais etapas, reduzindo significativamente o custo de execução para os invasores.
Em testes com a ferramenta Gemini 2.0 Flash, buscou-se identificar se a IA poderia auxiliar os atacantes nesses desafios específicos, mas os resultados indicaram que, nas condições atuais, a inteligência artificial ainda não possui eficiência para superar tais barreiras. Dessa forma, os defensores dispõem de um conjunto de pontos na cadeia de ataque que, provavelmente, não contarão com a influência da assistência de IA, oferecendo oportunidades estratégicas para a ruptura do ciclo de ataque.
Essa abordagem estruturada não só auxilia na identificação de riscos emergentes impulsionados pela IA, mas também os insere num contexto mais amplo dos frameworks tradicionais de cibersegurança. Com isso, os responsáveis pela defesa conseguem priorizar recursos e aprimorar proativamente sua postura de segurança diante do constante avanço e das novas táticas empregadas por adversários equipados com IA.
Além de orientar equipes de defesa, esse método pode servir aos desenvolvedores de inteligência artificial para a criação de versões mais seguras de seus modelos. Ao identificar riscos e possíveis áreas de abuso, a abordagem da DeepMind oferece subsídios para a implementação de salvaguardas e para o fortalecimento geral da segurança dos sistemas.
Em síntese, a estrutura proposta pela DeepMind concentra-se em identificar os pontos onde a IA ainda é ineficiente no aprimoramento dos ataques, utilizando esses desafios como indicadores para operações defensivas mais eficazes. Essa iniciativa representa uma vantagem estratégica frente a adversários habilitados pela IA, oferecendo insights críticos para a tomada de decisões e a evolução contínua das técnicas de segurança cibernética.