Google, seguindo os passos da OpenAI, publicou uma proposta política em resposta ao chamado da administração Trump por um “Plano de Ação Nacional para IA”. O gigante tecnológico defendeu restrições frouxas de direitos autorais para o treinamento de IA, bem como controles de exportação “equilibrados” que protejam a segurança nacional e possibilitem as exportações dos EUA e operações comerciais globais.
“Os EUA precisam adotar uma política econômica internacional ativa para defender os valores americanos e apoiar a inovação em IA globalmente”, afirmou o documento. “Por muito tempo, a formulação de políticas de IA tem dado atenção desproporcional aos riscos, ignorando frequentemente os custos que uma regulamentação equivocada pode ter sobre a inovação, a competitividade nacional e a liderança científica — uma dinâmica que começa a mudar com a nova administração.”
Uma das recomendações mais polêmicas diz respeito ao uso de material protegido por propriedade intelectual. A empresa argumenta que as exceções de “uso justo e de mineração de texto e dados” são “cruciais” para o desenvolvimento da IA e para a inovação científica. Assim como a OpenAI, a Google busca codificar o direito de treinar modelos com dados disponíveis publicamente — inclusive dados protegidos por direitos autorais — sem restrições significativas.
“Essas exceções permitem o uso de material protegido por direitos autorais e disponível publicamente para o treinamento de IA, sem impactar significativamente os detentores dos direitos, além de evitar negociações frequentemente imprevisíveis, desequilibradas e prolongadas com os proprietários dos dados durante o desenvolvimento de modelos ou experimentos científicos”, explicou a empresa.
A Google, que supostamente treinou diversos modelos a partir de dados públicos e protegidos por direitos autorais, enfrenta processos judiciais movidos por detentores de direitos, os quais a acusam de não notificá-los nem compensá-los previamente. Nos tribunais dos EUA, ainda não se decidiu se a doutrina do uso justo protege os desenvolvedores de IA contra litígios envolvendo propriedade intelectual.
Na sua proposta de política de IA, a Google também critica certos controles de exportação impostos pela administração Biden, que, segundo a empresa, “podem minar os objetivos de competitividade econômica” ao “impor encargos desproporcionais aos provedores de serviços em nuvem dos EUA”. Essa posição contrasta com a de concorrentes, como a Microsoft, que declarou estar “confiante” de que poderia “cumprir integralmente” as regras.
É importante ressaltar que as regras de exportação, que visam limitar a disponibilidade de chips avançados de IA em países não favorecidos, preveem exceções para empresas confiáveis que buscam grandes agrupamentos desses chips.
Em outro aspecto da proposta, a Google defende investimentos “de longo prazo e sustentados” em pesquisa e desenvolvimento (P&D) fundamentais no país, contrapondo-se aos recentes esforços federais para reduzir gastos e eliminar concessões de subsídios. A empresa propõe que o governo libere conjuntos de dados que possam ser úteis para o treinamento comercial de IA, além de destinar recursos à pesquisa em estágio inicial, garantindo que a computação e os modelos estejam “amplamente disponíveis” para cientistas e instituições.
Apontando o ambiente regulatório caótico criado pelo emaranhado de leis estaduais de IA, a Google recomenda que o governo aprove uma legislação federal sobre o assunto, que inclua um marco abrangente de privacidade e segurança. Apenas dois meses após o início de 2025, o número de projetos de lei pendentes sobre IA nos EUA já havia alcançado 781, segundo ferramenta online de monitoramento.
A empresa alerta o governo dos EUA contra a imposição de obrigações que considera excessivas para sistemas de IA, como responsabilidades pelo uso indevido dos mesmos. Em muitos casos, a Google argumenta, o desenvolvedor de um modelo “tem pouca ou nenhuma visibilidade ou controle” sobre como ele é utilizado e, portanto, não deveria ser responsabilizado por usos inadequados.
Historicamente, a Google tem se posicionado contra leis como a proposta de lei da Califórnia que estabelecia com clareza quais seriam as precauções que um desenvolvedor de IA deveria adotar antes de lançar um modelo e em quais situações ele poderia ser responsabilizado por danos decorrentes do uso do mesmo.
“Mesmo quando um desenvolvedor fornece um modelo diretamente para os implementadores, estes normalmente são os mais aptos para compreender os riscos decorrentes dos usos posteriores, implementar uma gestão eficaz dos riscos e realizar monitoramento e registro depois do lançamento”, concluiu a empresa.
Na proposta, a Google também classificou os requisitos de divulgação, semelhantes aos que estão sendo contemplados pela União Europeia, como “excessivamente amplos”. Segundo a empresa, o governo dos EUA deveria se opor a regras de transparência que obriguem a “divulgar segredos comerciais, permitir que concorrentes copiem produtos ou comprometer a segurança nacional ao fornecer um roteiro para adversários sobre como contornar proteções ou burlar modelos”.
Um número crescente de países e estados tem aprovado leis que exigem dos desenvolvedores de IA mais transparência sobre o funcionamento dos seus sistemas. Leis como a da Califórnia obrigam as empresas a publicarem um resumo geral dos conjuntos de dados utilizados para treinar seus sistemas. Na União Europeia, para cumprir o AI Act assim que entrar em vigor, as empresas terão que fornecer aos implementadores instruções detalhadas sobre o funcionamento, as limitações e os riscos associados a cada modelo.
Texto extraído da página original.