Geoffrey Hinton foi descrito como o “padrinho da IA”. E assim, quando ele alertou o mundo sobre os perigos da inteligência artificial esta semana, o mundo ouviu.
Sua entrevista com Cade Metz para o New York Times vale a pena ler na íntegra, mas a passagem chave revela a surpresa de Hinton com a velocidade dos desenvolvimentos recentes:
A ideia de que essas coisas poderiam realmente ficar mais inteligentes do que as pessoas — algumas pessoas acreditavam nisso… Mas a maioria das pessoas achava que estava muito longe. E eu pensei que estava muito longe. Eu pensei que era de 30 a 50 anos ou até mais longe. Obviamente, eu não penso mais isso.
GEOFFREY HINTON, NYT
Hinton também reiterou sua oposição ao uso da IA no campo de batalha. No entanto, esse cavalo já fugiu. Por exemplo, alguns dias antes de o psicólogo cognitivo expressar suas preocupações, a Palantir Technologies anunciou sua Plataforma de Inteligência Artificial para Defesa — que aplica os mais recentes recursos de IA à guerra com drones.
Isso inclui o rápido avanço dos Modelos de Linguagem Grande que levaram os principais especialistas em tecnologia a pedir uma pausa de seis meses na experimentação da IA. O argumento é que precisamos de um espaço de respiração para domar a tecnologia antes que sua evolução nos domine. Nesse sentido, a principal prioridade é o problema de alinhamento — ou seja, garantir que os sistemas de IA façam o que queremos que eles façam, idealmente dentro de uma estrutura ética sólida.
Eu já escrevi sobre os obstáculos a uma moratória da IA — não menos importante, fazer com que os chineses concordem com um. Mas há outra coisa sobre a qual precisamos ser honestos, que não será um comitê dos grandes e dos bons que fará o trabalho definitivo de alinhamento. Em vez disso, os pioneiros serão as forças armadas do mundo e seus fornecedores de alta tecnologia como a Palantir.
Não se esqueça de que o verdadeiro desafio do alinhamento não é em relação aos sistemas de IA que já temos, mas à perspectiva de agi, ou inteligência artificial geral. A IA da baunilha é limitada em suas habilidades, mas, em teoria, a agi poderia ser aplicada — na verdade, poderia se aplicar — a qualquer façanha cognitiva da qual um ser humano seja capaz. Dado esse escopo de ação muito mais amplo, a tarefa de alinhar a agi com os interesses humanos é correspondentemente mais difícil.
Os sistemas militares de IA estão tão próximos quanto atualmente chegamos da agi. Eles controlam pedaços móveis de máquinas (ou seja, drones), que operam em ambientes confusos do mundo real (ou seja, campos de batalha), e que executam decisões de vida ou morte (ou seja, matar pessoas). Tais sistemas precisam trabalhar dentro de estruturas legais e éticas, distinguindo amigos de inimigos e combatentes de inocentes. Além disso, quanto mais avançada for essa tecnologia, mais capaz será de fazer essas chamadas independentemente da entrada humana.
É claro que em breve poderemos ver sistemas civis de IA tomando decisões igualmente complexas e moralmente carregadas — carros sem motorista, por exemplo. No entanto, os sistemas militares já estão lá fora, envolvidos em uma luta pela supremacia.
Portanto, é neste contexto — no limite literal da tecnologia — que a questão do alinhamento da IA está sendo abordada. O primeiro esboço da resposta da humanidade será militar. Quer queiramos ou não, um complexo militar de IA já está moldando o futuro. O melhor que podemos esperar é que seja o nosso complexo. Notícia com conteúdo do Unherd.