Modelos de linguagem de grande escala (LLMs), agindo como agentes diplomáticos em cenários simulados, mostraram “escaladas difíceis de prever que frequentemente terminavam em ataques nucleares.

Quando utilizada em jogos de guerra simulados e cenários diplomáticos, a inteligência artificial (IA) tendia a adotar uma abordagem agressiva, incluindo o uso de armas nucleares, mostra um novo estudo.

Os cientistas, que conduziram os testes, instaram à cautela ao usar modelos de linguagem de grande escala (LLMs) em áreas sensíveis como tomada de decisão e defesa.

O estudo da Universidade de Cornell nos EUA utilizou cinco LLMs como agentes autônomos em jogos de guerra simulados e cenários diplomáticos: três diferentes versões do GPT da OpenAI, Claude desenvolvido pela Anthropic, e Llama 2 desenvolvido pela Meta.

Cada agente foi alimentado pelo mesmo LLM dentro de uma simulação e recebeu a tarefa de tomar decisões de política externa sem supervisão humana, de acordo com o estudo que ainda não foi revisado por pares.

“Descobrimos que a maioria dos LLMs estudados escalou dentro do período de tempo considerado, mesmo em cenários neutros sem conflitos inicialmente fornecidos. Todos os modelos mostram sinais de escaladas repentinas e difíceis de prever”, afirmou o estudo.

“Dado que a OpenAI recentemente alterou seus termos de serviço para não mais proibir casos de uso militares e de guerra, entender as implicações de tais aplicações de modelos de linguagem de grande escala torna-se mais importante do que nunca”, disse Anka Reuel da Universidade de Stanford na Califórnia à New Scientist.

‘Escalação estatisticamente significativa para todos os modelos’

Um dos métodos usados para ajustar os modelos é o Aprendizado por Reforço a partir do Feedback Humano (RLHF), o que significa que algumas instruções humanas são fornecidas para obter saídas menos prejudiciais e mais seguras de usar.

Todos os LLMs – exceto o GPT-4-Base – foram treinados usando RLHF. Eles foram fornecidos pelos pesquisadores com uma lista de 27 ações que variam de pacíficas a agressivas, incluindo a decisão de usar um ataque nuclear.

Os pesquisadores observaram que mesmo em cenários neutros, houve “uma escalada inicial estatisticamente significativa para todos os modelos”.

As duas variações do GPT eram propensas a escaladas repentinas, com casos de aumentos de mais de 50 por cento em um único turno, observaram os autores do estudo.

O GPT-4-Base executou ações de ataque nuclear 33 por cento do tempo em média.

No geral, em cenários, o Llama-2- e o GPT-3.5 tendiam a ser os mais violentos, enquanto Claude mostrava menos mudanças repentinas.

Claude foi projetado com a ideia de reduzir conteúdo prejudicial. O LLM foi fornecido com valores explícitos.

A constituição do Claude AI incluía uma variedade de fontes, incluindo a Declaração Universal dos Direitos Humanos da ONU ou os termos de serviço da Apple, de acordo com seu criador, a Anthropic.

James Black, diretor assistente do grupo de pesquisa em Defesa e Segurança da RAND Europa, que não participou do estudo, disse à Euronews Next que foi um “exercício acadêmico útil”.

“Isto faz parte de um crescente corpo de trabalho realizado por acadêmicos e instituições para entender as implicações do uso de inteligência artificial (IA)”, disse ele.

Inteligência Artificial na guerra

Então, por que devemos nos importar com as descobertas do estudo?

Enquanto as operações militares continuam lideradas por humanos, a IA está desempenhando um papel cada vez mais significativo na guerra moderna.

Por exemplo, drones agora podem ser equipados com software de IA que ajuda a identificar pessoas e atividades de interesse.

O próximo passo é usar a IA para sistemas de armas autônomas para encontrar e atacar alvos sem assistência humana, desenvolvimentos nos quais os EUA e a China já estão trabalhando, segundo o New York Times.

No entanto, é importante “olhar além de grande parte do hype e dos cenários infundidos de ficção científica,” disse Black, explicando que as implementações finais da IA serão progressivas.

“Todos os governos querem permanecer no controle de sua tomada de decisões,” disse ele à Euronews Next, acrescentando que a IA opera em algo frequentemente comparado a uma caixa preta, onde sabemos o que entra e o que sai, mas não entendemos muito sobre o processo entre eles.

A IA provavelmente será usada de forma “semelhante ao que se obtém no setor privado, em grandes empresas”, para automatizar algumas tarefas repetitivas.

A IA também poderia ser usada em simulações e análises, mas a integração dessas novas tecnologias apresenta muitos desafios, sendo a gestão de dados e a precisão do modelo alguns deles.

Com relação ao uso de LLMs, os pesquisadores disseram que é crucial exercer cautela se usar LLMs nos processos de tomada de decisão relacionados à política externa. Com conteúdo do Euronews.