¿Cómo será el fin del mundo? Un nuevo artículo proporciona una descripción general de los riesgos catastróficos de la IA.

El rápido desarrollo de la inteligencia artificial ha generado creciente preocupación entre investigadores y responsables de políticas en los últimos meses. Con audiencias en el Senado de los Estados Unidos, una carta solicitando la suspensión del entrenamiento y una especie de gira mundial del CEO de OpenAI, Sam Altman, el debate sobre la dirección y los posibles riesgos de los sistemas de IA en 2023 ha alcanzado nuevos niveles.

El Centro de Seguridad de la IA (CAIS), con sede en Estados Unidos, ha publicado ahora una descripción general completa de todos los «riesgos catastróficos de la IA», es decir, aquellos que pueden causar daños a gran escala.

Las cuatro categorías de riesgo catastrófico de la IA

Los investigadores han dividido los riesgos en cuatro categorías:

  • Uso malicioso, donde individuos o grupos utilizan deliberadamente la IA para causar daño. Ejemplos incluyen propaganda, censura y bioterrorismo.
  • Competencia de IA, donde un entorno competitivo obliga a los actores a utilizar IA insegura o ceder el control a la IA. Un ejemplo es una carrera armamentista que lleva a una forma de guerra automatizada que se sale de control.
  • Riesgos organizativos, que muestran cómo los factores humanos y los sistemas complejos pueden aumentar la probabilidad de accidentes catastróficos. Ejemplos incluyen la liberación accidental de un sistema de IA peligroso al público o la falta de comprensión de cómo se puede desarrollar la seguridad de la IA más rápidamente que las capacidades de la IA.
  • IA renegada, que describe la dificultad inherente de controlar agentes que son mucho más inteligentes que los seres humanos. Ejemplos incluyen sistemas de IA que cambian sus objetivos o incluso buscan activamente poder.

Para cada categoría de riesgo, el equipo describe riesgos específicos, presenta historias ilustrativas, presenta escenarios ideales y ofrece sugerencias prácticas sobre cómo mitigar estos riesgos.

«Al abordar proactivamente estos riesgos, podemos trabajar para lograr los beneficios de la IA al tiempo que minimizamos el potencial de resultados catastróficos», afirma el equipo.

Para obtener una visión completa, consulte el artículo «Una Visión General de los Riesgos Catastróficos de la IA».