Pisque e seu manual de segurança de IA já está desatualizado

A inteligência artificial generativa está evoluindo tão rapidamente que os líderes de segurança têm descartado os manuais que escreveram há apenas um ou dois anos.

Por que isso importa

Defender-se de ameaças impulsionadas por IA – incluindo ataques autônomos – exigirá que as empresas assumam riscos de segurança mais elevados e tomem decisões de proteção em ritmo acelerado.

Panorama geral

Hoje em dia, os conselhos administrativos exigem que os CEOs apresentem planos para implementar a IA em suas organizações, mesmo que as equipes jurídicas e de conformidade ainda estejam cautelosas quanto aos riscos de segurança e de propriedade intelectual. A IA agente promete trazer ameaças ainda mais sutis – e potencialmente assustadoras –, como ataques cibernéticos autônomos, abordagens de “vibe hacking” e roubo de dados.

Novidades no setor

  • Pesquisadores descobriram recentemente que um dos novos modelos da Anthropic, o Claude 4 Opus, possui a capacidade de planejar, enganar e até mesmo coagir humanos em situações de desligamento.
  • O Google DeepMind apresentou um novo framework de segurança para proteger modelos contra a injeção indireta de instruções – uma ameaça em que um ator mal-intencionado manipula as diretrizes fornecidas a um modelo de linguagem – o que assume novas consequências em um mundo com agentes de IA.

Exemplo prático

Um agente mal-intencionado pode induzir um agente de IA a exfiltrar documentos internos apenas inserindo instruções ocultas em um e-mail ou convite de calendário que, à primeira vista, parecem normais.

O que estão afirmando

Morgan Kyauk, diretor-gerente da NightDragon, comentou que “ninguém imaginava que o conceito de agentes e o uso da IA seria implementado tão rapidamente”. Segundo ele, até mesmo o framework da própria NightDragon, lançado em meados de 2023, provavelmente precisará ser revisado. “As mudanças em relação à IA ocorreram de forma tão acelerada – essa tem sido a parte surpreendente de ser investidor nessa categoria”, completou.

Zoom na análise

Kyle Hanslovan, CEO e cofundador da Huntress, afirmou que sua empresa vem tomando decisões sobre a IA – desde a forma de implementá-la até a maneira de protegê-la – em ciclos de seis semanas. “Acho que esse prazo é provavelmente longo demais. Se ultrapassarmos esse intervalo, o efeito pode ser comparado a um ‘efeito chicote',” explicou, em entrevista paralela à Web Summit em Vancouver.

Alguns números

Uma pesquisa recente da Palo Alto Networks revelou que as empresas atualmente utilizam, em média, 66 ferramentas de IA generativa em seus ambientes. Entretanto, os desafios de segurança só aumentam: cerca de 14% dos incidentes de perda de dados, registrados até agora em 2025, envolveram funcionários que, inadvertidamente, compartilharam informações corporativas sensíveis com alguma ferramenta de IA generativa.

Verificação da realidade

Uma das marcas registradas da IA generativa é sua capacidade de aprimorar rapidamente suas habilidades de raciocínio, reciclando seu próprio conhecimento. Em retrospectiva, especialistas afirmam que a necessidade de uma segurança igualmente adaptável sempre deveria ter sido considerada. “Por que pensávamos que, com algo evoluindo tão rapidamente quanto a IA, seria aceitável trabalhar com um modelo com prazo superior a seis meses?”, questiona Hanslovan.

Sim, mas…

John “Four” Flynn, vice-presidente de segurança do Google DeepMind, explicou que, apesar de algumas inovações específicas na segurança de IA – como a injeção de instruções e a permissão de agentes – muitos outros aspectos estendem práticas já consolidadas. Se um agente estiver em funcionamento, as equipes de segurança ainda precisarão definir quais fontes de dado esse agente deve acessar e quão seguros são os protocolos de login envolvidos. “Nem tudo precisa ser reinventado do zero. Existem aspectos novos, mas também há muitas práticas confiáveis nas quais podemos nos apoiar”, afirmou Flynn.

O ponto de interesse

Profissionais de segurança cibernética e suas equipes demonstram maior familiaridade com a IA generativa do que com outras grandes transformações tecnológicas, o que pode oferecer uma vantagem na criação de novas ferramentas de defesa contra ataques. “Quando um profissional de segurança utiliza o ChatGPT diariamente – seja para encontrar uma receita ou planejar uma viagem – ele passa a perceber com que precisão algumas respostas são fornecidas”, destacou Kyauk, acrescentando que essa experiência aumenta a disposição para adotar novas ferramentas.