Legislações de segurança em IA devem antecipar riscos futuros

Em um relatório recente, um grupo de políticas sediado na Califórnia, co-liderado pela pioneira da inteligência artificial Fei-Fei Li, propõe que os legisladores considerem riscos da IA “ainda não observados no mundo” ao elaborar as futuras leis do setor. O documento interino, com 41 páginas, foi divulgado na última terça-feira pelo Joint California Policy Working Group on Frontier AI Models, iniciativa organizada pelo governador Gavin Newsom após o veto ao controverso projeto de lei SB 1047. Newsom reconheceu, inclusive, a necessidade de uma avaliação mais aprofundada dos riscos da IA para orientar os legisladores.

No relatório, Fei-Fei Li, juntamente com outros especialistas renomados, como a reitora do Departamento de Ciência da Computação da UC Berkeley, Jennifer Chayes, e o presidente da Carnegie Endowment for International Peace, Mariano-Florentino Cuéllar, defendem a criação de leis que obriguem os laboratórios de IA de ponta, como os responsáveis pelo desenvolvimento de grandes modelos, a aumentar a transparência sobre o que estão construindo. Diversos representantes da indústria, com visões ideológicas diversas, revisaram o relatório antes de sua divulgação – de defensores ferrenhos da segurança em IA a críticos do SB 1047.

De acordo com o documento, os novos riscos apresentados pelos sistemas de IA podem exigir leis que obriguem os desenvolvedores a divulgar publicamente os resultados dos testes de segurança, práticas de aquisição de dados e medidas de segurança adotadas. Além disso, o relatório defende o estabelecimento de padrões mais rígidos para avaliações de terceiros desses parâmetros e das políticas corporativas, além de ampliar as proteções para denunciantes que atuem em empresas de IA.

Os autores destacam que ainda há um “nível inconclusivo de evidências” quanto ao potencial da IA de, por exemplo, realizar ciberataques, criar armas biológicas ou provocar outras ameaças “extremas”. Entretanto, argumentam que a política de IA não deve se limitar aos riscos atuais, mas também antecipar consequências futuras que possam ocorrer sem a devida implementação de salvaguardas.

O relatório exemplifica que “não precisamos observar a explosão de uma arma nuclear para prever, de forma confiável, que ela poderia causar danos extensos”. Segundo os autores, se as especulações sobre os riscos mais extremos se confirmarem – e não há garantias de que assim será –, as consequências de uma inação no atual estágio de desenvolvimento da IA podem ser extremamente onerosas.

Para aumentar a transparência no desenvolvimento dos modelos de IA, o relatório propõe uma estratégia de dupla abordagem: confiar, mas verificar. Assim, os desenvolvedores e seus colaboradores teriam canais para reportar internamente áreas de preocupação, como os testes de segurança, enquanto também deveriam submeter as declarações de testes a uma verificação por terceiros.

Embora a versão final do relatório seja prevista para junho de 2025 e não recomende uma legislação específica, sua publicação foi bem recebida por especialistas de ambos os lados do debate sobre políticas de IA. O documento parece alinhar diversos aspectos do SB 1047 e da proposta subsequente, o SB 53, como a exigência para que os desenvolvedores informem os resultados dos testes de segurança. De forma mais ampla, trata-se de um avanço importante no campo da segurança em IA, especialmente diante do recente cerceamento do debate sobre os riscos iminentes da tecnologia.