Como será o fim do mundo? Um novo artigo fornece uma visão geral dos riscos catastróficos da IA.

O rápido desenvolvimento da inteligência artificial tem gerado crescente preocupação entre pesquisadores e formuladores de políticas nos últimos meses. Com audiências no Senado dos Estados Unidos, uma carta pedindo a suspensão do treinamento e uma espécie de turnê mundial pelo CEO da OpenAI, Sam Altman, o debate sobre a direção e os potenciais riscos dos sistemas de IA em 2023 atingiu novos patamares.

O Centro de Segurança da IA (CAIS) sediado nos EUA publicou agora uma visão geral abrangente de todos os “riscos catastróficos da IA”, ou seja, aqueles que podem causar danos em grande escala.

As quatro categorias de risco catastrófico da IA

Os pesquisadores dividiram os riscos em quatro categorias:

  • Uso malicioso, onde indivíduos ou grupos usam deliberadamente a IA para causar danos. Exemplos incluem propaganda, censura e bioterrorismo.
  • Corridas de IA, onde um ambiente competitivo força os atores a usar IA insegura ou ceder o controle para a IA. Um exemplo é uma corrida armamentista que leva a uma forma de guerra automatizada que sai do controle.
  • Riscos organizacionais, que mostram como fatores humanos e sistemas complexos podem aumentar a probabilidade de acidentes catastróficos. Exemplos incluem a liberação acidental de um sistema de IA perigoso para o público ou uma falta de compreensão de como a segurança da IA pode ser desenvolvida mais rapidamente do que as capacidades da IA.
  • IA renegada, que descreve a dificuldade inerente de controlar agentes que são muito mais inteligentes do que os seres humanos. Exemplos incluem sistemas de IA que mudam seus objetivos ou até mesmo buscam ativamente poder.

Para cada categoria de risco, a equipe descreve riscos específicos, apresenta histórias ilustrativas, apresenta cenários ideais e faz sugestões práticas sobre como mitigar esses riscos.

“Ao abordarmos proativamente esses riscos, podemos trabalhar para alcançar os benefícios da IA, ao mesmo tempo em que minimizamos o potencial de resultados catastróficos”, afirma a equipe.

Para obter uma visão completa, consulte o artigo “Uma Visão Geral dos Riscos Catastróficos da IA“.