Os alertas da Big Tech sobre um apocalipse da IA estão nos distraindo dos anos de danos reais causados por seus produtos.
Na terça-feira de manhã, os comerciantes de inteligência artificial mais uma vez alertaram sobre o poder existencial de seus produtos. Centenas de executivos de IA, pesquisadores e outras figuras técnicas e empresariais, incluindo o CEO da OpenAI, Sam Altman, e Bill Gates, assinaram uma declaração de uma frase escrita pelo Center for AI Safety, declarando que “mitigar o risco de extinção pela IA deve ser uma prioridade global, juntamente com outros riscos de escala societal, como pandemias e guerras nucleares”.
Essas 22 palavras foram divulgadas após uma turnê de várias semanas em que executivos da OpenAI, Microsoft, Google e outras empresas de tecnologia pediram uma regulamentação limitada da IA. Eles falaram perante o Congresso, na União Europeia e em outros lugares sobre a necessidade de colaboração entre indústria e governos para conter os danos de seus produtos, mesmo enquanto suas empresas continuam investindo bilhões na tecnologia. Vários pesquisadores e críticos proeminentes de IA me disseram que são céticos em relação à retórica e que as regulamentações propostas pela Big Tech parecem enfraquecidas e com interesses próprios.
O Vale do Silício tem mostrado pouco respeito por anos de pesquisas que demonstram que os danos da IA não são especulativos, mas concretos; somente agora, após o lançamento do ChatGPT da OpenAI e uma cascata de financiamentos, parece haver muito interesse em parecer se importar com a segurança. “Isso parece um relações públicas muito sofisticado de uma empresa que está avançando em alta velocidade na construção da própria tecnologia que sua equipe está sinalizando como riscos para a humanidade”, disse Albert Fox Cahn, diretor executivo do Surveillance Technology Oversight Project, uma organização sem fins lucrativos que defende contra vigilância em massa.
A suposição não declarada subjacente ao medo de “extinção” é que a IA está destinada a se tornar terrivelmente capaz, transformando o trabalho dessas empresas em uma espécie de eschatologia. “Isso torna o produto mais poderoso”, disse Emily Bender, linguista computacional da Universidade de Washington, “tão poderoso a ponto de eliminar a humanidade”. Essa suposição oferece uma propaganda tácita: os CEOs, como semideuses, estão usando uma tecnologia tão transformadora quanto o fogo, eletricidade, fissão nuclear ou um vírus que causa pandemias. Seria tolice não investir. É também uma postura que visa imunizá-los contra críticas, copiando as comunicações de crise de empresas de tabaco, magnatas do petróleo e do Facebook: ei, não fique com raiva de nós; imploramos para que regulamentem nosso produto.
No entanto, o suposto apocalipse da IA ainda é ficção científica. “Uma história fantástica e estimulante está sendo usada para desviar a atenção do problema que a regulamentação precisa resolver”, disse Meredith Whittaker, co-fundadora do AI Now Institute e presidente da Signal. Programas como o GPT-4 melhoraram em relação às suas versões anteriores, mas apenas de forma incremental. A IA pode transformar aspectos importantes da vida cotidiana – talvez avançando na medicina, substituindo empregos – mas não há motivo para acreditar que qualquer oferta da Microsoft e do Google levaria ao fim da civilização. “É apenas mais dados e parâmetros; o que não está acontecendo são mudanças fundamentais em como esses sistemas funcionam”, disse Whittaker.
Duas semanas antes de assinar o aviso de extinção da IA, Altman, que comparou sua empresa ao Projeto Manhattan e a si mesmo a Robert Oppenheimer, apresentou ao Congresso uma versão mais atenuada da profecia da declaração de extinção: os tipos de produtos de IA desenvolvidos por sua empresa irão melhorar rapidamente e, portanto, potencialmente ser perigosos. Testemunhando perante um painel do Senado, ele disse que “a intervenção regulatória pelos governos será fundamental para mitigar os riscos de modelos cada vez mais poderosos”. Tanto Altman quanto os senadores trataram esse aumento de poder como inevitável e os riscos associados como “consequências potenciais” ainda não realizadas.
Mas muitos dos especialistas com quem falei estavam céticos em relação a quanto a IA progredirá a partir de suas habilidades atuais e afirmaram categoricamente que ela não precisa avançar para prejudicar as pessoas – aliás, muitos aplicativos já o fazem. A divergência, então, não é sobre se a IA é prejudicial, mas qual dano é mais preocupante – um cataclismo futuro da IA, do qual apenas seus arquitetos estão alertando e alegando que podem evitar exclusivamente, ou uma violência mais cotidiana com a qual governos, pesquisadores e o público têm lutado e combatido há muito tempo – assim como quem está em risco e como prevenir melhor esse dano.
Um exemplo disso é a realidade de que muitos produtos de IA existentes são discriminatórios – reconhecimento facial racista e que não reconhece a identidade de gênero corretamente, diagnósticos médicos tendenciosos e algoritmos de recrutamento sexistas estão entre os exemplos mais conhecidos. Cahn afirma que a IA deve ser considerada preconceituosa até que se prove o contrário. Além disso, modelos avançados são frequentemente acusados de violação de direitos autorais em relação aos conjuntos de dados e de violações trabalhistas em relação à sua produção. A mídia sintética está inundando a internet com golpes financeiros e pornografia não consensual. A “narrativa de ficção científica” sobre a IA, apresentada na declaração de extinção e em outros lugares, “nos distrai das áreas factíveis nas quais poderíamos começar a trabalhar hoje”, disse Deborah Raji, bolsista da Mozilla que estuda o viés algorítmico. E embora os danos algorítmicos hoje afetem principalmente as comunidades marginalizadas e sejam, portanto, mais fáceis de ignorar, um suposto colapso civilizacional prejudicaria também os privilegiados. “Quando Sam Altman diz algo, mesmo que esteja tão dissociado da forma real como esses danos realmente se desenrolam, as pessoas estão ouvindo”, disse Raji.
Mesmo que as pessoas ouçam, as palavras podem parecer vazias. Apenas dias após o depoimento de Altman no Senado, ele disse a repórteres em Londres que, se as novas regulamentações de IA da UE forem muito rigorosas, sua empresa poderia “cessar as operações” no continente. A aparente mudança de posição provocou uma reação negativa, e Altman então twittou que a OpenAI não tinha “planos de sair” da Europa. “Parece que algumas regulamentações realmente sensatas estão ameaçando o modelo de negócios”, disse Emily Bender, da Universidade de Washington. Em resposta por e-mail a um pedido de comentário sobre as declarações de Altman e a posição de sua empresa em relação à regulamentação, um porta-voz da OpenAI escreveu: “Alcançar nossa missão requer que trabalhemos para mitigar tanto os riscos atuais quanto os de longo prazo” e que a empresa está “colaborando com formuladores de políticas, pesquisadores e usuários” para fazer isso.
A farsa regulatória faz parte bem estabelecida do livro de jogadas do Vale do Silício. Em 2018, depois que o Facebook foi abalado por escândalos de desinformação e privacidade, Mark Zuckerberg disse ao Congresso que sua empresa tem “a responsabilidade de não apenas criar ferramentas, mas também garantir que elas sejam usadas para o bem” e que ele receberia “a regulamentação correta”. As plataformas do Meta falharam miseravelmente em limitar a desinformação eleitoral e pandêmica desde então. No início de 2022, Sam Bankman-Fried disse ao Congresso que o governo federal precisa estabelecer “diretrizes regulatórias claras e consistentes” para criptomoedas. No final do ano, sua própria empresa de criptomoedas se revelou um embuste, e ele foi preso por fraude financeira em uma escala comparável ao escândalo da Enron. “Estamos vendo uma tentativa realmente astuta de evitar ser associado às plataformas de tecnologia como o Facebook e o Twitter, que estão enfrentando escrutínio cada vez mais rigoroso dos reguladores em relação aos danos que causam”, disse Cahn.
Pelo menos alguns dos signatários da declaração de extinção parecem acreditar sinceramente que máquinas superinteligentes poderiam acabar com a humanidade. Yoshua Bengio, que assinou a declaração e às vezes é chamado de “padrinho” da IA, disse-me que acredita que as tecnologias se tornaram tão capazes que correm o risco de desencadear uma catástrofe que poderia acabar com o mundo, seja como entidades conscientes rebeldes ou nas mãos de um ser humano. “Se for um risco existencial, podemos ter apenas uma chance, e é isso”, disse ele.
Dan Hendrycks, diretor do Center for AI Safety, disse-me que pensa de forma semelhante sobre esses riscos. Ele também acrescentou que o público precisa acabar com a atual “corrida armamentista de IA entre essas corporações, onde basicamente priorizam o desenvolvimento de tecnologias de IA em detrimento de sua segurança”. Segundo Hendrycks, o fato de líderes do Google, Microsoft, OpenAI, Deepmind, Anthropic e Stability AI terem assinado o aviso de seu centro pode ser um sinal de preocupação genuína. Altman escreveu sobre essa ameaça até antes da fundação da OpenAI. No entanto, “mesmo sob essa interpretação generosa”, disse Bender, “você tem que se perguntar: se você acha que isso é tão perigoso, por que ainda está construindo?“
As soluções propostas por essas empresas para os danos empíricos e fantasiosos de seus produtos são vagas, cheias de lugares-comuns que se desviam de um corpo estabelecido de trabalho sobre o que os especialistas me disseram que a regulamentação da IA realmente exigiria. Em seu depoimento, Altman enfatizou a necessidade de criar uma nova agência governamental focada em IA. A Microsoft fez o mesmo. “Isso são restos requentados”, disse Whittaker, do Signal. “Eu participei de conversas em 2015 em que o tema era ‘Precisamos de uma nova agência?' Isso é um velho navio que geralmente pessoas de alto nível especulam em um ambiente de Davos antes de irem para coquetéis.” E uma nova agência, ou qualquer iniciativa exploratória de política, “é um objetivo a longo prazo que levaria muitas décadas para se aproximar de realizar”, disse Raji. Durante esse tempo, a IA poderia não apenas prejudicar inúmeras pessoas, mas também se enraizar em várias empresas e instituições, dificultando muito a regulamentação significativa.
Por cerca de uma década, especialistas estudaram rigorosamente os danos causados pela IA e propuseram maneiras mais realistas de evitá-los. Intervenções possíveis poderiam envolver a documentação pública dos dados de treinamento e do design do modelo; mecanismos claros para responsabilizar as empresas quando seus produtos espalham desinformação médica, difamação e outros conteúdos prejudiciais; legislação antitruste; ou simplesmente fazer cumprir as leis existentes relacionadas aos direitos civis, propriedade intelectual e proteção do consumidor. “Se uma loja está sistematicamente direcionando clientes negros por meio de tomada de decisão humana, isso é uma violação da lei de direitos civis”, disse Cahn. “E para mim, não é diferente quando um algoritmo faz isso.” Da mesma forma, se um chatbot escreve um parecer jurídico racista ou dá conselhos médicos incorretos, foi treinado em escrita protegida por direitos autorais ou engana pessoas por dinheiro, as leis atuais devem ser aplicadas.
As previsões apocalípticas e os apelos por uma nova agência de IA equivalem a “uma tentativa de sabotagem regulatória”, disse Whittaker, porque as próprias pessoas que vendem e lucram com essa tecnologia iriam “moldar, esvaziar e efetivamente sabotar” a agência e seus poderes. Basta olhar para Altman testemunhando perante o Congresso ou a recente reunião de “IA responsável” entre vários CEOs e o presidente Joe Biden: as pessoas que desenvolvem e lucram com o software são as mesmas que estão dizendo ao governo como abordá-lo, um vislumbre inicial de captura regulatória. “Há décadas de regulamentações muito específicas que as pessoas estão exigindo em termos de equidade, justiça e imparcialidade”, disse Safiya Noble, estudiosa de estudos da internet na UCLA e autora de “Algorithms of Oppression”. “E as regulamentações que vejo [as empresas de IA] falando são aquelas que são favoráveis aos seus interesses”. Essas empresas também gastaram muitos milhões de dólares fazendo lobby no Congresso apenas nos primeiros três meses deste ano.
Tudo o que realmente mudou das conversas há anos sobre a regulamentação da IA é o ChatGPT – um programa que, por produzir linguagem semelhante à humana, cativou consumidores e investidores, conferindo ao Vale do Silício uma aura prometeica. Embaixo desse mito, porém, grande parte dos danos da IA continua inalterada. A tecnologia depende de vigilância e coleta de dados, explora trabalho criativo e físico, amplifica preconceitos e não é consciente. As ideias e ferramentas necessárias para a regulamentação, que exigiriam abordar esses problemas e talvez reduzir os lucros corporativos, estão disponíveis para qualquer um que se importe em procurar. O aviso de 22 palavras é um tweet, não uma escritura; uma questão de fé, não de evidência. O fato de um algoritmo estar prejudicando alguém neste momento seria um fato se você lesse essa frase há uma década, e ainda é hoje.
Com conteúdo do The Atlantic.