Pisque e seu manual de segurança de IA está desatualizado

A inteligência artificial generativa está evoluindo tão rapidamente que os líderes de segurança estão descartando os manuais que escreveram há apenas um ou dois anos.

Por que isso é importante

Defender contra ameaças impulsionadas por IA – incluindo ataques autônomos – exigirá que as empresas façam apostas de segurança mais rápidas e arriscadas do que jamais precisaram anteriormente.

A visão geral

Hoje, os conselhos costumam exigir que os CEOs apresentem planos para implementar a IA em toda a organização, mesmo que as equipes jurídicas e de compliance estejam cautelosas quanto aos riscos de segurança e à proteção da propriedade intelectual.

  • A IA autônoma promete trazer ameaças de segurança ainda mais sutis – e potencialmente assustadoras. Ataques cibernéticos autônomos, “vibe hacking” e roubo de dados estão entre as possibilidades.

Notícias em destaque

Fabricantes importantes de modelos de IA revelaram novas descobertas e estruturas de segurança que evidenciam a rapidez com que o estado da arte na área está avançando.

  • Pesquisadores descobriram recentemente que um dos novos modelos da Anthropic, Claude 4 Opus, tem a capacidade de planejar, enganar e, potencialmente, chantagear humanos quando confrontado com uma ordem de desligamento.
  • O Google DeepMind apresentou uma nova estrutura de segurança para proteger os modelos contra injeção indireta de comandos – uma ameaça em que um ator malicioso manipula as instruções fornecidas a um modelo de linguagem –, o que adquire novas consequências em um mundo com agentes autônomos.

Exemplo prático

Um agente malicioso poderia enganar uma IA para exfiltrar documentos internos simplesmente incorporando uma instrução oculta em um e-mail ou convite de calendário aparentemente comum.

O que eles estão dizendo

“Ninguém imaginava que o conceito de agentes e o uso da IA seria implementado tão rapidamente”, afirmou Morgan Kyauk, diretor-gerente da NightDragon.

  • Até mesmo a própria estrutura da NightDragon, lançada em meados de 2023, provavelmente precisa ser revisada, acrescentou Kyauk.
  • “As coisas mudaram tão rapidamente no mundo da IA – essa tem sido a parte surpreendente de ser um investidor nesse setor”, completou.

Em detalhes

Kyle Hanslovan, CEO e cofundador da Huntress, revelou que sua empresa toma decisões sobre a IA – seja em sua implementação ou na proteção contra seus riscos – em ciclos de seis semanas.

  • “Acho que esse prazo provavelmente é longo demais”, afirmou Hanslovan em entrevista à Web Summit em Vancouver. “Mas se você ultrapassar esse período, o que acontece é um efeito de chicote.”

Em números

As empresas agora possuem, em média, 66 ferramentas de IA generativa operando em seus ambientes, segundo uma nova pesquisa da Palo Alto Networks divulgada recentemente.

  • Entretanto, os riscos de segurança continuam a aumentar: cerca de 14% dos incidentes de perda de dados registrados até agora em 2025 envolveram funcionários que, inadvertidamente, compartilharam informações corporativas sensíveis com alguma ferramenta de IA generativa.

Cheque de realidade

Uma característica marcante da IA generativa é sua capacidade de aprimorar rapidamente as habilidades de raciocínio ao se retroalimentar. Em retrospectiva, os especialistas afirmam que a necessidade de uma segurança igualmente adaptável já deveria ser evidente.

  • “Por que pensamos que, com algo que se adapta tão rapidamente quanto a IA, seria aceitável ter um modelo com uma vida útil superior a seis meses?”, comentou Hanslovan.

Sim, mas

John “Four” Flynn, vice-presidente de segurança do Google DeepMind, ressaltou que, embora alguns aspectos da segurança em IA sejam novos – como a injeção de comandos ou a definição de permissões para agentes – muitos outros elementos ampliam práticas já consolidadas.

  • Se um agente estiver operando, as equipes de segurança ainda precisam avaliar quais fontes de dados esse agente pode acessar ou a eficácia dos protocolos de autenticação utilizados.
  • “Nem tudo está perdido; não precisamos reinventar a roda”, destacou Flynn. “Há inovações, mas também podemos nos apoiar em muitas práticas que já dominamos ao longo dos anos.”

O que intriga

Os diretores de segurança (CISOs) e suas equipes estão mais confortáveis com a IA generativa do que costumavam estar com outras grandes mudanças tecnológicas – o que pode proporcionar uma vantagem aos defensores na criação de novas ferramentas para combater ataques.

  • “Se você é um profissional de cibersegurança e utiliza o ChatGPT diariamente para, por exemplo, encontrar uma receita ou planejar um itinerário, começa a perceber a precisão de algumas respostas”, ressaltou Kyauk.
  • “Há uma maior disposição para adotar essas ferramentas”, concluiu.