Legislador da Califórnia relança projeto de lei de segurança em IA com foco na proteção de denunciantes

Uma mulher toca uma mão robótica produzida pela empresa Syntouch durante uma conferência de robótica e IA

SAN FRANCISCO — O ambicioso legislador da Califórnia, responsável por um projeto de lei de segurança em inteligência artificial (IA) que dividiu opiniões no ano passado, relançou uma versão mais enxuta focada na proteção de denunciantes. A tentativa anterior, que buscava conter os potenciais danos da tecnologia, acabou gerando um debate nacional sobre como, e se, a poderosa ferramenta deveria ser regulamentada.

O senador estadual Scott Wiener, democrata de São Francisco, apresentou os detalhes completos de sua segunda proposta na noite de quinta-feira, após seu projeto anterior ter sido vetado pelo governador Gavin Newsom. O veto ocorreu em meio a críticas de alguns representantes da Big Tech, que alertavam para possíveis consequências negativas à inovação. O projeto também dividiu opiniões entre os democratas do Congresso, com nomes como Nancy Pelosi se posicionando contra a proposta, enquanto figuras do setor de tecnologia, como Elon Musk, demonstraram apoio aos esforços para mitigar riscos públicos potenciais.

Segundo Wiener, foram reintroduzidas duas partes do projeto do ano passado que não geraram objeções por parte do governador. A nova versão retoma medidas específicas de proteção para denunciantes que atuam na indústria de IA. Na proposta anterior, essas proteções já haviam sido incluídas, mas o foco principal era impedir os piores usos da tecnologia, como a criação de armas biológicas, por meio da exigência de testes de segurança para os maiores modelos de IA antes de seu lançamento.

Quando o governador Newsom vetou a tentativa anterior, ele optou por formar um painel de especialistas em IA, incumbido de elaborar um relatório que buscasse evitar danos causados pela tecnologia sem comprometer seu desenvolvimento na Califórnia. Wiener revelou que ainda não tem conhecimento sobre o conteúdo desse relatório, mas afirmou que, dependendo do prazo e das recomendações do grupo de trabalho, poderá optar por integrá-las à sua proposta.

O projeto define como “risco crítico” a implantação de um programa de IA que possa resultar na morte ou causar ferimentos graves em mais de 100 pessoas ou prejuízos superiores a um bilhão de dólares. Também se enquadram nessa definição ações como a criação e liberação de uma arma química, biológica, radiológica ou nuclear, ou a realização de um ataque cibernético. Em vez de regular diretamente o desenvolvimento da tecnologia, a nova medida propõe que programadores e especialistas sinalizem quando identificarem que um programa pode sair do controle.

A proposta proíbe que as empresas tomem represálias contra funcionários que alertem as autoridades sobre tecnologias potencialmente perigosas ou que comuniquem a situação a um representante interno. Além disso, as companhias que desenvolvem tecnologia em IA seriam obrigadas a informar seus colaboradores sobre o direito de denunciar, à segurança, a existência de tecnologias com riscos iminentes.

Wiener comentou que espera que essa versão gere menos controvérsia no meio tecnológico, embora reconheça que surpresas podem ocorrer. No ano passado, um grupo de empregados – atuais e antigos – da OpenAI exigiu a implementação de proteções para denunciantes, alegando que acordos de confidencialidade abrangentes os restringiam, enquanto as proteções existentes se aplicavam apenas à divulgação de atividades ilegais, o que não correspondia à maioria das atividades na área de IA.

O projeto também reforça a criação de um cluster estadual de computação em nuvem para pesquisas em IA, denominado “CalCompute”, que estava previsto na legislação anterior. Wiener defende que essa iniciativa ajudaria a garantir que empresas e pesquisadores da Califórnia continuem na vanguarda do desenvolvimento dessa tecnologia de alto valor. Segundo a proposta, o CalCompute seria estabelecido, na medida do possível, em parceria com o sistema da Universidade da Califórnia, e a Agência de Operações Governamentais seria responsável por produzir um relatório detalhando os custos, a estrutura e os possíveis acessos a esse recurso de computação em nuvem voltado para pesquisas que beneficiem o público.