Alarmados com os riscos crescentes representados por plataformas geradoras de inteligência artificial (IA) como o ChatGPT, reguladores e agências de aplicação da lei na Europa estão procurando maneiras de desacelerar a corrida precipitada da humanidade para o futuro digital.
Com poucos guardrails no lugar, o ChatGPT, que responde às consultas dos usuários na forma de ensaios, poemas, planilhas e código de computador, registrou mais de 1,6 bilhão de visitas desde dezembro.
A Europol, a Agência da União Europeia para a Cooperação Policial, alertou no final de março que o ChatGPT, apenas uma das milhares de plataformas de IA atualmente em uso, pode ajudar criminosos com phishing, criação de malware e até mesmo atos terroristas.
“Se um criminoso em potencial não sabe nada sobre uma área de crime em particular, o ChatGPT pode acelerar significativamente o processo de pesquisa, oferecendo informações importantes que podem ser exploradas nas etapas subsequentes”, afirmou o relatório da Europol.
“Como tal, o ChatGPT pode ser usado para aprender sobre um grande número de áreas potenciais de crime sem conhecimento prévio, desde como invadir uma casa até terrorismo, cibercrime e abuso sexual infantil”.
No mês passado, a Itália proibiu temporariamente o ChatGPT depois que uma falha expôs os arquivos dos usuários. O conselho italiano de direitos de privacidade Garante ameaçou o criador do programa, OpenAI, com milhões de dólares em multas por violações de privacidade até abordar questões de onde as informações dos usuários vão e estabelecer restrições de idade na plataforma. Espanha, França e Alemanha estão investigando queixas de violações de dados pessoais — e este mês o Conselho Europeu de Proteção de Dados da UE formou uma força-tarefa para coordenar regulamentos em toda a União Europeia de 27 países.
“É um alerta na Europa”, disse o legislador da UE Dragos Tudorache, co-patrocinador da Lei de Inteligência Artificial, que está sendo finalizada no Parlamento Europeu e estabeleceria uma autoridade central de IA, ao Yahoo News.
“Temos que discernir muito claramente o que está acontecendo e como enquadrar as regras.”
Embora a inteligência artificial faça parte da vida cotidiana há vários anos — o Alexa da Amazon e os jogos de xadrez on-line são apenas dois dos muitos exemplos — nada trouxe para casa o potencial da IA como o ChatGPT, um “grande modelo de linguagem” interativo onde os usuários podem ter perguntas respondidas ou tarefas concluídas em segundos.
“O ChatGPT tem um conhecimento que muito poucos humanos têm”, disse Mark Bünger, co-fundador da Futurity Systems, uma agência de consultoria com sede em Barcelona focada em inovação baseada na ciência. Entre as coisas que ele sabe melhor do que a maioria dos seres humanos é como programar um computador. Então, provavelmente será muito bom e muito rápido programar a próxima versão melhor de si mesma. E essa versão será ainda melhor e programará algo que nenhum humano entende.”
A tecnologia surpreendentemente eficiente também abre as portas para todos os tipos de fraude, dizem os especialistas, incluindo roubo de identidade e plágio nas escolas.
“Para os educadores, a possibilidade de que o curso enviado possa ter sido assistido, ou mesmo inteiramente escrito, por um sistema de IA generativo como o ChatGPT da OpenAI ou o Bard do Google, é motivo de preocupação”, disse Nick Taylor, vice-diretor do Centro de Robótica de Edimburgo, ao Yahoo News.
A OpenAI e a Microsoft, que apoiou financeiramente a OpenAI, mas desenvolveu um chatbot rival, não responderam a um pedido de comentário para este artigo.
“A IA existe há décadas, mas está crescendo agora porque está disponível para todos usarem”, disse Cecilia Tham, CEO da Futurity Systems. Desde que o ChatGPT foi introduzido como um teste gratuito ao público em 30 de novembro, disse Tham, os programadores o adaptaram para desenvolver milhares de novos chatbots, desde o PlantGPT, que ajuda a monitorar plantas domésticas, até o hipotético ChaosGPT “que é projetado para gerar saídas caóticas ou imprevisíveis”, de acordo com seu site e, finalmente, “destruir a humanidade”.
Outra variação, AutoGPT, abreviação de Autonomous GPT, pode executar tarefas mais complicadas orientadas a objetivos. “Por exemplo”, disse Tham, “você pode dizer: ‘Eu quero ganhar 1.000 euros por dia. Como posso fazer isso?’— e descobrirá todos os passos intermediários para esse objetivo.
Mas e se alguém disser: ‘Eu quero matar 1.000 pessoas. Me dê cada passo para fazer isso?
Mesmo que o modelo do ChatGPT tenha restrições sobre as informações que ele pode dar, ela observa que “as pessoas conseguiram hackeá-las”.
Os riscos potenciais dos chatbots e da IA em geral levaram o Future of Life Institute, um think tank focado em tecnologia, a publicar uma carta aberta no mês passado pedindo uma interrupção temporária no desenvolvimento da IA. Assinado por Elon Musk e o co-fundador da Apple, Steve Wozniak, observou que
“os sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade” e “os laboratórios de IA estão presos em uma corrida descontrolada para desenvolver e implantar mentes digitais cada vez mais poderosas que ninguém — nem mesmo seus criadores — pode entender, prever ou controlar de forma confiável”.
Os signatários pediram uma pausa de seis meses no desenvolvimento de sistemas de IA mais poderosos que o GPT-4 para que os regulamentos pudessem ser elaborados, e pediram aos governos que “instituíssem uma moratória” se os principais participantes do setor não o fizessem voluntariamente.
O parlamentar da UE Brando Benifei, co-patrocinador do AI Act, zomba dessa ideia. “Uma moratória não é realista”, disse ele ao Yahoo News. “O que devemos fazer é continuar trabalhando para encontrar as regras corretas para o desenvolvimento da IA”, disse ele, “também precisamos de um debate global sobre como enfrentar os desafios dessa IA muito poderosa”.
Nesta semana, legisladores da UE que trabalham com IA publicaram um “apelo à ação” solicitando que o presidente Biden e a presidente da Comissão Europeia, Ursula von der Leyen, “convocem uma cúpula global de alto nível” para estabelecer “um conjunto preliminar de princípios para o desenvolvimento, controle e implantação” da IA.
Tudorache disse ao Yahoo News que a Lei de IA, que deve ser promulgada no próximo ano, “traz novos poderes aos reguladores para lidar com aplicativos de IA” e dá aos reguladores da UE a autoridade para distribuir multas pesadas. A legislação também inclui uma ordenação de risco de várias atividades de IA e proíbe usos como “pontuação social”, um esquema de monitoramento distópico que classificaria praticamente todas as interações sociais em uma escala de mérito.
“Os consumidores devem saber quais dados o ChatGPT está usando e armazenando e para que estão sendo usados”, disse Sébastien Pant, vice-chefe de comunicações da Organização Europeia do Consumidor (BEUC), ao Yahoo News. “Ainda não está claro para nós quais dados estão sendo usados ou se a coleta de dados respeita a lei de proteção de dados.”
Os EUA, por sua vez, continuam atrasados em tomar medidas concretas para regular a IA, apesar das preocupações recentemente levantadas pelo comissário da FTC, Álvaro Bedoya, de que “a IA está sendo usada agora para decidir quem contratar, quem demitir, quem recebe um empréstimo, quem permanece no hospital e quem é enviado para casa”.
Quando Biden foi perguntado recentemente se a IA poderia ser perigosa, ele respondeu: “Ainda está para ser visto — poderia ser”.
As diferentes atitudes sobre a proteção dos dados pessoais dos consumidores remontam a décadas, disse Gabriela Zanfir-Fortuna, vice-presidente de privacidade global do Future of Privacy Forum, um think tank focado na proteção de dados, ao Yahoo News.
“A UE deu grande importância à forma como os direitos das pessoas são afetados pela automatização dos seus dados pessoais nesta nova era digital e informatizada, a ponto de incluir uma disposição na sua Carta dos Direitos Fundamentais”, disse Zanfir-Fortuna.
Países europeus como Alemanha, Suécia e França adotaram leis de proteção de dados há 50 anos, acrescentou. “Os legisladores dos EUA parecem ter se preocupado menos com essa questão nas décadas anteriores, já que o país ainda não possui uma lei geral de proteção de dados no nível federal”.
Enquanto isso, Gerd Leonhard, autor de “Tecnologia vs. Humanidade”, e outros se preocupam com o que acontecerá quando o ChatGPT e formas mais avançadas de IA forem usadas pelos militares, instituições bancárias e aqueles que trabalham com problemas ambientais.
“A piada em curso na comunidade de IA”, disse Leonhard, “é que se você pedir à IA para consertar a mudança climática, ela mataria todos os humanos. É inconveniente para nós, mas é a resposta mais lógica.”
Referências da Yahoo.