Resumo das Notícias

  • As principais empresas de IA passaram meses trabalhando com os governos dos EUA e do Reino Unido na segurança dos modelos
  • F5 adquirirá a empresa de segurança de IA CalypsoAI por US$180 milhões
  • O incidente de segurança na Salesloft Drift teve início com o acesso não detectado ao GitHub
  • Equipe da NYU por trás do malware com suporte de IA, apelidado de “PromptLock”
  • A IA pode ajudar a rastrear um número cada vez maior de vulnerabilidades, afirma oficial da CISA
  • Adolescente preso no Reino Unido foi figura central nas operações do Scattered Spider
  • O malware Brickstorm impulsiona campanha de ciberespionagem chinesa “de próximo nível”

Conte ou seja contido: A imperativa segurança de controlar a IA autônoma

A inteligência artificial não é mais um conceito futuro; ela está sendo integrada à infraestrutura crítica, às operações empresariais e às missões de segurança em todo o mundo. Ao abraçarmos o potencial da IA e acelerarmos sua inovação, enfrentamos uma nova realidade: a velocidade do conflito cibernético agora supera a capacidade humana. O tempo necessário para uma resposta eficaz a ameaças passou de meses ou dias para meros segundos.

Essa aceleração exige que os humanos sejam removidos do ciclo tático de segurança. Para gerenciar essa profunda transformação de forma responsável, é preciso evoluir o debate, deixando de lado as discussões abstratas sobre “segurança em IA” e concentrando-se no desafio prático e arquitetônico da “segurança da IA”. A única forma de aproveitar o poder da IA probabilística é amalgamá-la com controles determinísticos.

Em um conflito operado na velocidade das máquinas, a necessidade de uma pessoa desenvolver, testar e aprovar uma contramedida torna-se uma séria vulnerabilidade. Imagine um sistema de controle industrial responsável pelo abastecimento de água de uma cidade. Um ataque conduzido por IA poderia manipular válvulas e bombas em milissegundos, causando uma falha catastrófica, enquanto um centro de operações de segurança humano talvez só percebesse a anomalia após horas.

Uma defesa orientada por IA, por sua vez, conseguiria identificar o padrão do ataque, correlacioná-lo com a inteligência de ameaças e aplicar uma contramedida para isolar os segmentos afetados da rede em questão de segundos, mantendo a integridade operacional. Nesse novo paradigma, os sistemas mais seguros e resilientes serão aqueles com a mínima interação humana direta, transferindo a supervisão humana do nível tático para o estratégico.

A falácia da segurança em IA

Grande parte do debate atual sobre “segurança em IA” concentra-se na complexa tarefa de alinhar a inteligência artificial aos valores humanos. Como destaca o pioneiro da IA, Stuart Russell, em seu livro Human Compatible, “é muito difícil, em termos algorítmicos, definir com precisão o que se deseja”. Equívocos na definição das preferências humanas podem ter consequências potencialmente catastróficas.

Isso expõe o problema central: tentar programar uma moral universal perfeita é uma empreitada inútil. Não há consenso global sobre quais são os “valores humanos”. Mesmo que houvesse, seria desejável que os valores de um predador de ápice fossem incorporados em uma inteligência superior?

A realidade é que os sistemas de IA — baseados em redes neurais inspiradas no cérebro humano e treinados com conteúdo exclusivamente produzido por humanos — já refletem nossos valores, para o bem e para o mal. A prioridade, portanto, não deve ser uma tentativa insuficiente de tornar a IA “moral”, mas sim um esforço prático para torná-la segura.

Como adverte James Barrat em The Final Invention, podemos ser obrigados a “competir com um rival mais astuto, mais poderoso e mais alienígena do que podemos imaginar”. O foco precisa ser garantir a segurança humana por meio da criação de um ambiente onde as operações de IA sejam limitadas e verificáveis.

Reconciliação da IA probabilística com o controle determinístico

O poder da IA reside em sua natureza probabilística. Ela analisa inúmeras variáveis e cenários para identificar estratégias e soluções — semelhante à jogada do AlphaGo, que inicialmente causou incredulidade, mas garantiu a vitória —, revelando possibilidades que fogem à compreensão humana. Essa capacidade é uma característica intrínseca, não um defeito.

No entanto, toda a infraestrutura legal e normativa está alicerçada em princípios determinísticos. Certificações de segurança e proteção dependem de sistemas que produzem resultados previsíveis para estabelecer linhas claras de responsabilidade.

Esse contraste gera um conflito básico: quem assume a responsabilidade quando uma IA probabilística, encarregada de gerenciar uma rede elétrica nacional, toma uma decisão não convencional que salva milhares de vidas, mas causa mortes imediatas e localizadas?

Nenhum humano deseja — ou seria permitido — assumir a responsabilidade de anular a decisão estatisticamente superior da IA. A solução não está em limitar a inteligência artificial a uma caixa determinística, mas em construir uma fortaleza determinística em torno dela.

O caminho a seguir: contenção da IA

Três tendências convergem: a hiperaceleração das operações de segurança, a necessidade de remover os humanos do ciclo tático e o embate entre a IA probabilística e os nossos arcabouços legais determinísticos. O caminho a seguir não é interromper o progresso, mas adotar um novo modelo de segurança: a contenção da IA.

Essa estratégia possibilitaria que a IA operasse e inovasse livremente dentro de limites estabelecidos pelos seres humanos. Ela exige a criação de “fosso digitais” e a moderação rigorosa das “pontes levadiças” que conectam a IA a outros sistemas.

Ao projetarmos sistemas com interfaces rigorosamente controladas e constantemente inspecionadas, podemos monitorar a IA, evitar a contaminação por dados externos e garantir que suas ações permaneçam dentro de uma esfera contida e previsível. Dessa forma, poderemos aproveitar os imensos benefícios da inteligência estratégica da IA, sem abrir mão do controle determinístico e da responsabilidade indispensável às missões mais críticas.