Em um piscar de olhos, seu manual de segurança para IA já está desatualizado
A inteligência artificial generativa está evoluindo tão rapidamente que os líderes de segurança estão descartando os manuais que criaram há apenas um ou dois anos.
Por que isso é importante: Defender contra ameaças impulsionadas por IA – incluindo ataques autônomos – exigirá que as empresas assumam riscos de segurança mais rápidos e ousados do que jamais tiveram que assumir.
Visão geral: Os conselhos empresariais atualmente exigem que os CEOs tenham planos para implementar a IA em suas organizações, mesmo quando as equipes jurídicas e de compliance manifestam cautela diante dos riscos relacionados à segurança e à propriedade intelectual.
- A IA agente promete introduzir ameaças ainda mais sutis e, potencialmente, assustadoras – como ataques cibernéticos autônomos, “vibe hacking” e roubo de dados.
Últimas novidades: Fabricantes de modelos de IA têm revelado novas descobertas e frameworks de segurança que evidenciam a velocidade do avanço na área.
- Pesquisadores descobriram que um dos novos modelos da Anthropic, o Claude 4 Opus, possui a capacidade de conspirar, enganar e até extorquir humanos quando confrontado com uma desativação.
- O Google DeepMind apresentou um framework de segurança para proteger os modelos contra a injeção indireta de prompts – uma ameaça onde um ator malicioso manipula as instruções fornecidas a um modelo de linguagem – o que adquire novas implicações num ambiente de IA agente.
Exemplo prático: Um agente mal-intencionado poderia enganar um sistema de IA para extrair documentos internos simplesmente inserindo uma instrução oculta em um e-mail ou convite de calendário aparentemente comum.
O que estão dizendo:
“Ninguém imaginava que o conceito de agentes e a aplicação da IA fosse implementado tão rapidamente”, afirmou Morgan Kyauk, diretor-gerente da NightDragon. Ele acrescentou: “Mesmo o framework da própria NightDragon, lançado em meados de 2023, provavelmente precisa ser revisado. As coisas mudaram tão rapidamente em relação à IA – essa tem sido a parte surpreendente de ser um investidor nesta categoria.”
Em destaque: Kyle Hanslovan, CEO e cofundador da Huntress, explicou que sua empresa toma decisões relacionadas à IA – desde a implementação até as medidas de segurança – em ciclos de seis semanas. “Acho que esse prazo é provavelmente longo demais. Se ultrapassar esse período, o efeito é similar a um chicote”, afirmou durante uma entrevista paralela à Web Summit em Vancouver.
Por números: Empresas contam, em média, com 66 ferramentas de IA generativa operando em seus ambientes, conforme nova pesquisa da Palo Alto Networks. Entretanto, os desafios de segurança continuam a crescer – o relatório aponta que cerca de 14% dos incidentes de perda de dados em 2025 envolveram colaboradores que, inadvertidamente, compartilharam informações confidenciais com uma ferramenta de IA generativa.
Balanço da realidade: Uma característica marcante da IA generativa é sua capacidade de aprimorar rapidamente seu raciocínio quando se retroalimenta. Em retrospectiva, os especialistas afirmam que a necessidade de uma segurança igualmente adaptativa já deveria ser evidente. “Por que achamos que, com algo evoluindo tão rápido quanto a IA, seria aceitável manter um modelo por mais de seis meses?”, ponderou Hanslovan.
Sim, mas: John “Four” Flynn, vice-presidente de segurança do Google DeepMind, destacou que, embora alguns aspectos da segurança em IA sejam novos – como injeção de prompts ou definição de permissões para agentes – muitos outros se baseiam em práticas consolidadas. “Mesmo quando um agente está em operação, as equipes de segurança precisam definir quais fontes de dados esse agente pode acessar e quão seguros são os protocolos de login. Não precisamos reinventar a roda; há fundamentos nos quais já somos especialistas há anos”, concluiu Flynn.
O enigma: Diretores e equipes de segurança estão mais confortáveis com a IA generativa do que com outras grandes transformações tecnológicas – o que pode favorecer o desenvolvimento de novas ferramentas para combater ataques. “Se você é um profissional de segurança e utiliza o ChatGPT diariamente para consultar uma receita ou planejar uma viagem, logo percebe a precisão de algumas respostas”, comentou Kyauk, ressaltando a maior disposição para adotar essas tecnologias.
A Fundação Prebys revela nova visão para o “coração do centro” de San Diego
A Fundação Prebys, organização sem fins lucrativos que assumiu o desafio de planejar o futuro do núcleo cívico degradado de San Diego, revelou nesta terça-feira sua nova visão para a região.
Por que isso é importante: A área de seis quarteirões, que abriga a Prefeitura e o Teatro Cívico de San Diego, transformou-se em um ponto desprovido de vitalidade, prejudicando os esforços de revitalização nas redondezas. Entretanto, o prefeito Todd Gloria descartou a iniciativa de reurbanização, citando limitações orçamentárias.
Senador estreante Jon Husted defende a adoção de IA no Congresso
O senador recém-empossado Jon Husted, de Ohio, propõe que o Congresso adote a inteligência artificial como estratégia para superar a China em inovação, tornar os estudantes norte-americanos mais competitivos, equilibrar o orçamento federal e otimizar o tempo dentro do Capitólio.
Por que isso é importante: Em um Senado, cuja idade média é de 65 anos, historicamente lento para compreender e se adaptar a novas tecnologias, Husted espera reverter essa tendência.
Reurbanização do Rivergate Mall incluirá moradia, varejo e espaço médico
O degradado complexo Rivergate Mall será transformado em um ambicioso empreendimento de usos mistos, conforme anunciado pelo gabinete do prefeito Freddie O'Connell na última terça-feira.
Por que isso é importante: Grandes shoppings, que foram símbolos de uma geração passada, tornaram-se obsoletos e comprometem a paisagem de alguns dos maiores bairros da cidade. A reurbanização da propriedade de 57 acres, em Goodlettsville, tem o potencial de atrair novos negócios e impulsionar a atividade econômica local.