Imagem ilustrativa

Pisque e seu manual de segurança em IA já está desatualizado

Ilustração de um bisturi empurrando um cursor

A inteligência artificial generativa está evoluindo tão rapidamente que líderes de segurança estão descartando os manuais que escreveram há apenas um ou dois anos.

Por que isso é importante:

Defender-se contra ameaças impulsionadas por IA – incluindo ataques autônomos – exigirá das empresas apostas de segurança mais rápidas e arriscadas do que jamais tiveram de fazer.

O panorama geral:

Conselhos administrativos estão exigindo que os CEOs apresentem planos para implementar a IA em suas empresas, mesmo que as equipes jurídicas e de conformidade estejam receosas quanto aos riscos de segurança e de propriedade intelectual.

A IA agentiva promete trazer ameaças de segurança ainda mais sutis – e potencialmente assustadoras. Ataques cibernéticos autônomos, “vibe hacking” e furto de dados estão entre os riscos que podem surgir.

Avanços na área:

Principais fabricantes de modelos de IA anunciaram novas descobertas e estruturas de segurança que evidenciam a velocidade com que a tecnologia está avançando:

  • Pesquisadores descobriram recentemente que um dos novos modelos da Anthropic, o Claude 4 Opus, tem a capacidade de arquitetar estratégias, enganar e até extorquir seres humanos diante de uma ameaça de desligamento.
  • O Google DeepMind apresentou uma nova estrutura para proteger os modelos contra a injeção indireta de instruções – um risco em que um ator mal-intencionado manipula as orientações fornecidas a um modelo de linguagem. Em um cenário agentivo, essa questão ganha ainda mais relevo.

Exemplo prático:

Um agente malicioso pode induzir um sistema de IA a extrair documentos internos simplesmente incorporando uma instrução oculta em um e-mail ou convite de calendário aparentemente inofensivo.

O que os especialistas dizem:

Morgan Kyauk, diretor administrativo na NightDragon, afirmou: “Ninguém imaginava que o conceito de agentes e o uso de IA seria implementado tão rapidamente.” Ele acrescentou que até mesmo a própria estrutura da NightDragon, lançada em meados de 2023, provavelmente precisará ser revista. “As coisas mudaram tão rapidamente em torno da IA – isso tem sido a parte surpreendente de ser um investidor nessa categoria”, disse.

Análise detalhada:

Kyle Hanslovan, CEO e cofundador da Huntress, revelou que sua empresa toma decisões sobre a IA – desde a forma de implementá-la até como protegê-la – em ciclos de seis semanas. “Acho que esse prazo é provavelmente longo demais”, comentou Hanslovan durante uma entrevista na Web Summit em Vancouver. “Se você se alongar além disso, ocorre um efeito de ‘whiplash'.”

Números que impressionam:

Pesquisas da Palo Alto Networks indicam que, atualmente, as empresas operam em média 66 ferramentas de IA generativa em seus ambientes. Além disso, cerca de 14% dos incidentes de perda de dados em 2025 envolveram funcionários que, inadvertidamente, compartilharam informações corporativas sensíveis com plataformas de IA de terceiros.

Uma verificação da realidade:

Um traço característico da IA generativa é sua capacidade de aprimorar rapidamente o raciocínio ao se retroalimentar. Em retrospectiva, os especialistas afirmam que já era óbvio que a segurança precisaria ser igualmente adaptável. “Por que achávamos que, com algo se adaptando tão rápido quanto a IA, seria aceitável manter um modelo com prazos superiores a seis meses?”, questionou Hanslovan.

Perspectiva complementar:

John “Four” Flynn, vice-presidente de segurança do Google DeepMind, ressaltou que, embora alguns aspectos da segurança em IA – como injeção de instruções ou controle de permissões dos agentes – sejam novos, muitos desafios apenas ampliam práticas já conhecidas. Enquanto um agente estiver operando, as equipes de segurança ainda precisarão determinar quais fontes de dados esse agente pode acessar e quão seguros são os protocolos de autenticação. “Não precisamos reinventar a roda por completo”, afirmou Flynn. “Há inovações, mas muito do que já sabemos continua sendo aplicável.”

O diferencial dos defensores:

CISOs e suas equipes estão mais confortáveis com as tecnologias de IA generativa do que estiveram em outras grandes mudanças tecnológicas – e isso pode proporcionar uma vantagem para desenvolver novas ferramentas de defesa. “Se você é um profissional de cibersegurança e utiliza o ChatGPT diariamente para buscar receitas ou planejar sua viagem, começa a perceber a precisão de algumas respostas”, comentou Kyauk. “Isso gera uma maior disposição para adotar essas ferramentas.”