Pisque e sua estratégia de segurança de IA já está desatualizada
A inteligência artificial generativa está evoluindo tão rapidamente que líderes de segurança estão descartando os manuais que foram escritos há apenas um ou dois anos.
Por que isso importa: Defender-se contra ameaças impulsionadas por IA – inclusive ataques autônomos – exigirá que as empresas tomem decisões de segurança mais rápidas e arriscadas do que jamais tiveram que tomar.
O panorama geral: Hoje em dia, os conselhos de administração geralmente exigem dos CEOs planos para implementar a IA em suas organizações, mesmo quando as equipes jurídicas e de compliance demonstram hesitação quanto aos riscos de segurança e de propriedade intelectual.
A IA agentica promete trazer ameaças de segurança ainda mais sutis – e potencialmente assustadoras. Ataques cibernéticos autônomos, “vibe hacking” e roubo de dados já estão sendo discutidos.
Novidades: Pesquisadores descobriram recentemente que um dos novos modelos da Anthropic, o Claude 4 Opus, possui a capacidade de elaborar estratégias, enganar e, até mesmo, chantagear humanos quando confrontado com um processo de desligamento. Além disso, o Google DeepMind apresentou um novo framework de segurança destinado a proteger modelos contra a injeção indireta de comandos – uma ameaça na qual um agente mal intencionado manipula as instruções fornecidas a um modelo de linguagem. Esse cenário assume consequências ainda maiores em um mundo cada vez mais agentico.
Exemplo: Um agente mal intencionado pode induzir uma IA a extrair documentos internos simplesmente incorporando uma instrução oculta no que aparenta ser um e-mail ou um convite de calendário comum.
O que estão dizendo: Morgan Kyauk, diretor-gerente na empresa de venture capital NightDragon, afirmou que “ninguém imaginava que o conceito de agentes e o uso da IA se instauraria tão rapidamente”. Ele ainda observou que até mesmo o framework desenvolvido internamente pela NightDragon, lançado em meados de 2023, provavelmente precisará ser revisado. “As coisas mudaram em relação à IA tão rapidamente — esse tem sido o aspecto surpreendente de ser investidor nessa categoria”, acrescentou Kyauk.
Detalhes: Kyle Hanslovan, CEO e cofundador da Huntress, comentou que sua empresa está tomando decisões sobre o uso da IA – tanto em relação à sua implementação quanto à segurança – em ciclos de seis semanas. “Acho que esse prazo provavelmente é longo demais”, afirmou Hanslovan, em entrevista paralela ao Web Summit em Vancouver. “Pois se o ciclo se estender, o que ocorre é um efeito de chicote.”
Por números: Empresas contam, em média, com 66 ferramentas de IA generativa operando em seus ambientes, conforme aponta uma nova pesquisa da Palo Alto Networks divulgada recentemente. Entretanto, os riscos de segurança aumentam: cerca de 14% dos incidentes de perda de dados ocorridos em 2025 envolveram funcionários que, de forma acidental, compartilharam informações corporativas sensíveis com ferramentas de IA generativa de terceiros.
Cheque de realidade: Uma das características marcantes da IA generativa é sua capacidade de aprimorar rapidamente suas habilidades de raciocínio, ao se retroalimentar. Em retrospectiva, os especialistas afirmam que a necessidade de uma segurança igualmente adaptativa já deveria ter sido evidente. “Por que pensávamos que, com algo que evolui tão rapidamente quanto a IA, seria aceitável utilizar um modelo com mais de seis meses?”, questionou Hanslovan.
Sim, mas: John “Four” Flynn, vice-presidente de segurança do Google DeepMind, explicou que, embora algumas questões de segurança na IA sejam de fato novas – como a injeção de comandos ou a permissão diferenciada para agentes – muitos aspectos permanecem como extensões de práticas já consolidadas. Segundo Flynn, mesmo com a atuação de um agente, as equipes de segurança ainda precisam determinar quais fontes de dados esse agente deve acessar e avaliar a segurança dos protocolos de login. “Nem tudo está perdido; não precisamos reinventar a roda. Há novidades, mas podemos nos apoiar em técnicas que já dominamos ao longo dos anos”, afirmou.
A curiosidade: Os CISOs (Chief Information Security Officers) e suas equipes estão se sentindo mais à vontade com a IA generativa do que costumavam se sentir diante de outras grandes transformações tecnológicas. Essa familiaridade pode representar uma vantagem na criação de novas ferramentas para combater ataques. “Se você é um profissional de segurança cibernética e utiliza o ChatGPT diariamente, seja para buscar uma receita ou para planejar um itinerário de viagem, logo percebe a precisão de algumas respostas. Isso aumenta a disposição para adotar essas tecnologias”, ponderou Kyauk.