O Senado do Estado da Califórnia concedeu aprovação final, ainda que cedo na manhã de sábado, a um importante projeto de lei de segurança em IA que estabelece novos requisitos de transparência para grandes empresas.

Como descrito pelo seu autor, o senador Scott Wiener, o SB 53 “exige que os grandes laboratórios de IA sejam transparentes quanto aos seus protocolos de segurança, cria proteções para denunciantes nos laboratórios de IA e institui uma nuvem pública para expandir o acesso à capacidade de processamento (CalCompute).”

O projeto agora segue para o Governador de Califórnia, Gavin Newsom, que poderá sancioná-lo ou vetá-lo. Apesar de não ter se manifestado publicamente sobre o SB 53, no ano passado, ele vetou um projeto de lei de segurança mais amplo, também idealizado por Wiener, ao mesmo tempo em que sancionava uma legislação mais restrita, voltada a questões como deepfakes.

Na ocasião, Newsom reconheceu a importância de “proteger o público contra ameaças reais apresentadas por essa tecnologia”, mas criticou o projeto anterior de Wiener por aplicar “padrões rigorosos” aos grandes modelos, independentemente de serem implementados em ambientes de alto risco, de envolverem decisões críticas ou do uso de dados sensíveis.

Wiener afirmou que o novo projeto foi influenciado por recomendações de um painel de especialistas em política de IA que Newsom convocou após seu veto.

Além disso, fontes da Politico apontam que o SB 53 foi recentemente alterado para que empresas que desenvolvem modelos de IA “de fronteira” e faturam menos de US$ 500 milhões por ano precisem apenas divulgar detalhes gerais sobre sua segurança, enquanto as empresas com receitas superiores deverão fornecer relatórios mais detalhados.

O projeto enfrenta oposição de diversas empresas do Vale do Silício, firmas de venture capital e grupos de lobby. Em uma carta recente dirigida a Newsom, a OpenAI não mencionou especificamente o SB 53, mas defendeu que, para evitar “duplicações e inconsistências”, as empresas devam ser consideradas em conformidade com as regras de segurança estaduais enquanto atenderem aos padrões federais ou europeus.

Em evento realizado em San Francisco, entre 27 e 29 de outubro de 2025, o chefe de política de IA e diretor jurídico da Andreessen Horowitz afirmou que “muitos dos projetos de lei estaduais sobre IA na atualidade — como as propostas na Califórnia e em Nova York — correm o risco” de ultrapassar os limites constitucionais de como os estados podem regular o comércio interestadual.

Curiosamente, os cofundadores da a16z já haviam apontado a regulação tecnológica como um dos fatores que os levaram a apoiar a candidatura de Donald Trump para um segundo mandato. A administração Trump e seus aliados, posteriormente, defenderam a implementação de “uma proibição de 10 anos à regulação estadual da IA”.

Por sua vez, a Anthropic manifestou apoio ao SB 53. “Sempre dissemos que preferiríamos um padrão federal”, afirmou o cofundador da Anthropic, Jack Clark, em uma publicação, acrescentando: “Mas, na ausência deste, isso cria um modelo sólido para a governança da IA que não pode ser ignorado.”