Modelos de IA escolheram a violência e escalaram para ataques nucleares em jogos de guerra simulados
Modelos de linguagem de grande escala (LLMs), agindo como agentes diplomáticos em cenários simulados, mostraram “escaladas difíceis de prever que frequentemente terminavam em ataques nucleares.