La inteligencia artificial estará en el centro de las futuras crisis financieras — y los reguladores no podrán adelantarse a ella. Ese es el mensaje transmitido por el presidente de la Comisión de Valores y Bolsa de Estados Unidos (SEC), Gary Gensler, posiblemente el regulador más importante y poderoso en Estados Unidos en este momento.

Por qué esto es importante: Un artículo escrito por Gensler en 2020, cuando era profesor en el MIT, es un recurso invaluable para comprender estos riesgos — y cuán poco pueden hacer los reguladores para intentar enfrentarlos.

Panorama general: El riesgo más evidente de la IA en los mercados financieros es que los algoritmos de negociación impulsados por la IA, conocidos como «cajas negras», se salgan de control y todos terminen vendiendo lo mismo al mismo tiempo, causando un colapso en el mercado.

  • «No hay simplemente suficientes personas capacitadas para construir y gestionar estos modelos, y tienden a tener antecedentes bastante similares», escribió Gensler. «Además, hay afinidades fuertes entre las personas que fueron capacitadas juntas: lo que se conoce como el efecto de aprendizaje».
  • El riesgo de homogeneidad de los modelos también podría ser creado por las propias regulaciones. Si los reguladores ejercen control sobre lo que las IAs pueden y no pueden hacer, esto aumenta el riesgo de que todas terminen haciendo lo mismo al mismo tiempo, y también aumenta la probabilidad de que las empresas elijan utilizar ofertas de IA como servicio de un pequeño número de grandes proveedores incuestionables.

Sea inteligente: Debido a que las reglas que gobiernan cuándo los modelos compran y venden son opacas para los seres humanos y no son conocibles de antemano (o incluso retrospectivamente), es muy difícil para los reguladores evitar tal colapso.

  • Como escribió Gensler: «Si las predicciones del aprendizaje profundo fueran explicables, no se usarían en primer lugar».

Entre líneas: Los riesgos de la IA van mucho más allá de los algoritmos de negociación.

  • Muchas IAs se dedican a evaluar la capacidad crediticia, por ejemplo. Debido a su opacidad, es muy difícil determinar si están juzgando a los humanos de manera discriminatoria. Y como las IAs están en constante evolución de manera impredecible, es imposible saber en tiempo real si una IA que no era racista ayer puede haberse vuelto racista hoy.

Dónde estamos: «Es probable que las lagunas regulatorias hayan surgido y puedan aumentar significativamente con la mayor adopción del aprendizaje profundo en el área financiera», escribió Gensler. «Concluimos que el aprendizaje profundo probablemente aumentará los riesgos sistémicos.»

  • La respuesta regulatoria más simple y posiblemente más efectiva podría ser aumentar la cantidad de capital que las instituciones financieras deben mantener cuando están utilizando herramientas de IA (o sus reguladores lo están).
  • Los reguladores también podrían exigir que todos los resultados generados por IA pasen por una «prueba de olfato» de un modelo lineal más antiguo y con mayor explicabilidad. Las empresas podrían ser desalentadas o prohibidas de tomar medidas que no puedan explicarse ampliamente en términos de fundamentos.

Nivel de amenaza: Los reguladores pueden ser capaces de desacelerar la tasa de aumento, pero es muy poco probable que puedan evitar el aumento del riesgo sistémico.

  • El propio Gensler tenía una larga lista de enfoques regulatorios que ayudarían, pero afirma claramente que, incluso en conjunto, son «insuficientes para la tarea» en cuestión.

El dilema de los datos

La IA tiene una «demanda insaciable de datos», observó Gensler en su artículo.

Por qué esto es importante: El riesgo es que los modelos de IA inevitablemente convergerán en un punto en el que todos compartan el mismo conjunto de entrenamiento enorme (Common Crawl, por ejemplo), colectivizando cualquier debilidad inherente que este conjunto pueda tener.

  • «Los modelos construidos en los mismos conjuntos de datos probablemente generarán predicciones altamente correlacionadas que avanzan de manera sincronizada, causando aglomeración y manada», escribió Gensler.

La demanda de fuentes de datos enormes tiende a llevar a monopolios.

  • Gensler observó que Intercontinental Exchange se convirtió silenciosamente en dominante en el mercado de datos hipotecarios, a través de sus adquisiciones de MERS, Ellie Mae y Simplifile.
  • Estos monopolios pueden convertirse en «puntos únicos de falla» que amenazan toda la red — así como la quiebra de un solo banco de inversión mediano, Lehman Brothers, causó una catástrofe financiera global.

Incluso los conjuntos de datos más grandes son peligrosamente incompletos. «El uso de internet, datos de dispositivos vestibles, datos telemáticos y datos de GPS y smartphones simplemente no tienen horizontes temporales lo suficientemente largos como para cubrir ni siquiera un solo ciclo financiero completo», observó Gensler.

  • Esto puede tener consecuencias devastadoras — como vimos durante la crisis financiera.
  • El riesgo de aglomeración ya está presente. «Existe la hipótesis de que la aglomeración y la manada en el comercio algorítmico de alta frecuencia son parcialmente responsables de causar caídas relámpago», escribió Gensler. A medida que estos traders recurren cada vez más a la IA, este riesgo solo puede aumentar.
  • Las empresas en economías en desarrollo pueden terminar usando IAs que no han sido entrenadas en datos domésticos, lo que aumenta aún más los riesgos.

Conclusión: Las IAs no saben lo que no saben. Y eso puede ser muy peligroso. Con contenido de Axios.