O autor do SB 1047 apresenta novo projeto de lei de IA na Califórnia
O autor do SB 1047, o projeto de lei de segurança de IA mais controverso de 2024, está de volta com uma nova proposta que pode abalar o Vale do Silício. O senador da Califórnia, Scott Wiener, apresentou na sexta-feira o SB 53, que visa proteger os funcionários dos principais laboratórios de IA, permitindo que se manifestem caso achem que os sistemas de IA de suas empresas possam representar um “risco crítico” para a sociedade. Além disso, o projeto prevê a criação do CalCompute, um cluster de computação em nuvem público destinado a oferecer os recursos computacionais necessários para que pesquisadores e startups desenvolvam IAs em benefício do público.
O SB 53 surge em meio ao polêmico debate provocado pelo SB 1047, que buscava impedir que modelos de IA de grande porte causassem desastres, como a perda de vidas ou ataques cibernéticos com danos superiores a 500 milhões de dólares. Apesar da intenção, o governador Gavin Newsom vetou o SB 1047 em setembro, alegando que aquela não era a melhor abordagem.
A discussão sobre o SB 1047 rapidamente se intensificou. Alguns líderes do Vale do Silício afirmaram que o projeto prejudicaria a competitividade dos Estados Unidos na corrida global pela liderança em IA, acusando-o de basear-se em temores irreais de cenários apocalípticos. Em contrapartida, o senador Wiener acusou determinados investidores de promover uma “campanha de propaganda” contra seu projeto, destacando alegações equivocadas de que o SB 1047 levaria fundadores de startups à prisão.
O SB 53, portanto, retoma os pontos menos controversos do SB 1047 – como as proteções para denunciantes e a criação do cluster CalCompute – e os reorganiza em um novo projeto de lei de IA.
De forma notável, o novo projeto não evita abordar o risco existencial da IA. O SB 53 protege especificamente os denunciantes que acreditam que seus empregadores estão desenvolvendo sistemas de IA que apresentam um “risco crítico”. Segundo a proposta, esse risco é definido como um “risco previsível ou material de que o desenvolvimento, armazenamento ou implantação de um modelo fundamental resulte na morte ou em lesões graves de mais de 100 pessoas, ou em danos que ultrapassem 1 bilhão de dólares em direitos monetários ou de propriedade.”
O projeto limita os desenvolvedores de modelos de IA de ponta – possivelmente incluindo empresas como OpenAI, Anthropic e xAI, entre outras – de retaliarem contra funcionários que divulguem informações preocupantes às autoridades estaduais ou federais. Assim, esses desenvolvedores seriam obrigados a fornecer respostas detalhadas aos denunciantes sobre determinados processos internos considerados problemáticos.
No que se refere ao CalCompute, o SB 53 propõe a criação de um grupo responsável por estruturar esse cluster de computação em nuvem. Esse grupo seria composto por representantes da Universidade da Califórnia e outros pesquisadores dos setores público e privado, com a missão de definir como o CalCompute deve ser montado, seu porte e os critérios de acesso para usuários e organizações.
Vale ressaltar que o SB 53 ainda se encontra nas fases iniciais do processo legislativo e precisa ser analisado e aprovado pelos órgãos competentes da Califórnia antes de seguir para apreciação do governador Newsom. Os legisladores estaduais certamente aguardam a reação do Vale do Silício à nova proposta.
É possível, entretanto, que 2025 se mostre um ano mais desafiador para a aprovação de projetos de lei de segurança de IA. Enquanto 2024 viu a aprovação de 18 propostas relacionadas à IA na Califórnia, há indícios de que o movimento de alerta sobre as ameaças causadas pela tecnologia tenha perdido força. Em um encontro recente, o vice-presidente J.D. Vance sinalizou que os Estados Unidos priorizam a inovação em IA em vez da segurança, mesmo que a criação do cluster CalCompute possa representar um avanço significativo para o setor. Resta saber como os esforços legislativos voltados ao risco existencial da IA se desenvolverão nos próximos meses.