Pisque e seu manual de segurança em IA já está desatualizado
A inteligência artificial generativa está evoluindo tão rapidamente que líderes de segurança estão descartando os manuais que escreveram há apenas um ou dois anos.
Por que isso é importante:
Defender-se contra ameaças impulsionadas por IA – incluindo ataques autônomos – exigirá das empresas apostas de segurança mais rápidas e arriscadas do que jamais tiveram de fazer.
O panorama geral:
Conselhos administrativos estão exigindo que os CEOs apresentem planos para implementar a IA em suas empresas, mesmo que as equipes jurídicas e de conformidade estejam receosas quanto aos riscos de segurança e de propriedade intelectual.
A IA agentiva promete trazer ameaças de segurança ainda mais sutis – e potencialmente assustadoras. Ataques cibernéticos autônomos, “vibe hacking” e furto de dados estão entre os riscos que podem surgir.
Avanços na área:
Principais fabricantes de modelos de IA anunciaram novas descobertas e estruturas de segurança que evidenciam a velocidade com que a tecnologia está avançando:
- Pesquisadores descobriram recentemente que um dos novos modelos da Anthropic, o Claude 4 Opus, tem a capacidade de arquitetar estratégias, enganar e até extorquir seres humanos diante de uma ameaça de desligamento.
- O Google DeepMind apresentou uma nova estrutura para proteger os modelos contra a injeção indireta de instruções – um risco em que um ator mal-intencionado manipula as orientações fornecidas a um modelo de linguagem. Em um cenário agentivo, essa questão ganha ainda mais relevo.
Exemplo prático:
Um agente malicioso pode induzir um sistema de IA a extrair documentos internos simplesmente incorporando uma instrução oculta em um e-mail ou convite de calendário aparentemente inofensivo.
O que os especialistas dizem:
Morgan Kyauk, diretor administrativo na NightDragon, afirmou: “Ninguém imaginava que o conceito de agentes e o uso de IA seria implementado tão rapidamente.” Ele acrescentou que até mesmo a própria estrutura da NightDragon, lançada em meados de 2023, provavelmente precisará ser revista. “As coisas mudaram tão rapidamente em torno da IA – isso tem sido a parte surpreendente de ser um investidor nessa categoria”, disse.
Análise detalhada:
Kyle Hanslovan, CEO e cofundador da Huntress, revelou que sua empresa toma decisões sobre a IA – desde a forma de implementá-la até como protegê-la – em ciclos de seis semanas. “Acho que esse prazo é provavelmente longo demais”, comentou Hanslovan durante uma entrevista na Web Summit em Vancouver. “Se você se alongar além disso, ocorre um efeito de ‘whiplash'.”
Números que impressionam:
Pesquisas da Palo Alto Networks indicam que, atualmente, as empresas operam em média 66 ferramentas de IA generativa em seus ambientes. Além disso, cerca de 14% dos incidentes de perda de dados em 2025 envolveram funcionários que, inadvertidamente, compartilharam informações corporativas sensíveis com plataformas de IA de terceiros.
Uma verificação da realidade:
Um traço característico da IA generativa é sua capacidade de aprimorar rapidamente o raciocínio ao se retroalimentar. Em retrospectiva, os especialistas afirmam que já era óbvio que a segurança precisaria ser igualmente adaptável. “Por que achávamos que, com algo se adaptando tão rápido quanto a IA, seria aceitável manter um modelo com prazos superiores a seis meses?”, questionou Hanslovan.
Perspectiva complementar:
John “Four” Flynn, vice-presidente de segurança do Google DeepMind, ressaltou que, embora alguns aspectos da segurança em IA – como injeção de instruções ou controle de permissões dos agentes – sejam novos, muitos desafios apenas ampliam práticas já conhecidas. Enquanto um agente estiver operando, as equipes de segurança ainda precisarão determinar quais fontes de dados esse agente pode acessar e quão seguros são os protocolos de autenticação. “Não precisamos reinventar a roda por completo”, afirmou Flynn. “Há inovações, mas muito do que já sabemos continua sendo aplicável.”
O diferencial dos defensores:
CISOs e suas equipes estão mais confortáveis com as tecnologias de IA generativa do que estiveram em outras grandes mudanças tecnológicas – e isso pode proporcionar uma vantagem para desenvolver novas ferramentas de defesa. “Se você é um profissional de cibersegurança e utiliza o ChatGPT diariamente para buscar receitas ou planejar sua viagem, começa a perceber a precisão de algumas respostas”, comentou Kyauk. “Isso gera uma maior disposição para adotar essas ferramentas.”