A inteligência artificial estará no centro das futuras crises financeiras — e os reguladores não conseguirão estar à frente dela. Essa é a mensagem transmitida pelo presidente da SEC, Gary Gensler, possivelmente o regulador mais importante e poderoso nos Estados Unidos no momento.
Por que isso é importante: Um artigo escrito por Gensler em 2020, quando era professor no MIT, é um recurso inestimável para compreender esses riscos — e o quão pouco os reguladores podem fazer para tentar enfrentá-los.
O panorama geral: O risco mais óbvio da IA nos mercados financeiros é que algoritmos de negociação alimentados por IA, conhecidos como “caixas-pretas”, saiam do controle e todos acabem vendendo a mesma coisa ao mesmo tempo, causando um colapso no mercado.
- “Simplemente não há tantas pessoas treinadas para construir e gerenciar esses modelos, e elas tendem a ter antecedentes bastante semelhantes”, escreveu Gensler. “Além disso, existem afinidades fortes entre as pessoas que foram treinadas juntas: o chamado efeito de aprendiz”.
- O risco de homogeneidade dos modelos também poderia ser criado pelas próprias regulamentações. Se os reguladores exercem controle sobre o que as IAs podem e não podem fazer, isso aumenta o risco de que todas acabem fazendo a mesma coisa ao mesmo tempo, e também aumenta a probabilidade de que as empresas escolham utilizar ofertas de IA como serviço de um pequeno número de grandes provedores inquestionáveis.
Seja inteligente: Como as regras que governam quando os modelos compram e vendem são opacas para os seres humanos e não são conhecíveis com antecedência (ou mesmo retrospectivamente), é muito difícil para os reguladores evitar tal colapso.
- Como Gensler escreveu: “Se as previsões do aprendizado profundo fossem explicáveis, elas não seriam usadas em primeiro lugar.”
Entrelinhas: Os riscos da IA vão muito além dos algoritmos de negociação.
- Muitas IAs são dedicadas a julgar a capacidade de crédito, por exemplo. Devido à sua opacidade, é muito difícil determinar se elas estão julgando os humanos de maneira discriminatória. E como as IAs estão em constante evolução de maneira imprevisível, é impossível saber em tempo real se uma IA que não era racista ontem pode ter se tornado racista hoje.
Onde estamos: “É provável que lacunas regulatórias tenham surgido e possam crescer significativamente com a maior adoção do aprendizado profundo na área financeira”, escreveu Gensler. “Concluímos que o aprendizado profundo provavelmente aumentará os riscos sistêmicos.”
- A resposta regulatória mais simples e possivelmente mais eficaz poderia ser aumentar a quantidade de capital que as instituições financeiras precisam manter quando estão usando ferramentas de IA (ou seus reguladores estão).
- Os reguladores também poderiam exigir que todos os resultados gerados por IA passem por um “teste de cheiro” de um modelo linear mais antiquado e com maior explicabilidade. As empresas poderiam ser desencorajadas ou proibidas de tomar medidas que não possam ser amplamente explicadas em termos de fundamentos.
Nível de ameaça: Os reguladores podem ser capazes de desacelerar a taxa de aumento, mas é muito improvável que eles consigam impedir o aumento do risco sistêmico.
- O próprio Gensler tinha uma longa lista de abordagens regulatórias que ajudariam, mas ele afirma claramente que, mesmo em conjunto, elas são “insuficientes para a tarefa” em questão.
O dilema dos dados
A IA tem uma “demanda insaciável por dados”, observou Gensler em seu artigo.
Por que isso é importante: O risco é que os modelos de IA inevitavelmente convergirão para um ponto em que todos compartilham o mesmo enorme conjunto de treinamento (Common Crawl, por exemplo), coletivizando quaisquer fraquezas inerentes que esse conjunto possa ter.
- “Modelos construídos nos mesmos conjuntos de dados provavelmente gerarão previsões altamente correlacionadas que avançam de forma sincronizada, causando aglomeração e manada”, escreveu Gensler.
A demanda por fontes de dados enormes tende a levar a monopólios.
- Gensler observou que a Intercontinental Exchange silenciosamente se tornou dominante no mercado de dados hipotecários, por meio de suas aquisições da MERS, Ellie Mae e Simplifile.
- Esses monopólios podem se tornar “pontos únicos de falha” que ameaçam toda a rede — assim como a falência de um único banco de investimento de médio porte, o Lehman Brothers, causou uma catástrofe financeira global.
Mesmo os maiores conjuntos de dados são perigosamente incompletos. “O uso da internet, dados de dispositivos vestíveis, dados telemáticos e dados de GPS e smartphones simplesmente não têm horizontes temporais longos o suficiente para cobrir sequer um único ciclo financeiro completo”, observou Gensler.
- Isso pode ter consequências devastadoras — como vimos durante a crise financeira.
- O risco de aglomeração já está presente. “Há a hipótese de que a aglomeração e a manada no comércio algorítmico de alta frequência são parcialmente responsáveis por causar crashes relâmpagos”, escreveu Gensler. À medida que esses traders se voltam cada vez mais para a IA, esse risco só pode aumentar.
- Empresas em economias em desenvolvimento podem acabar usando IAs que não foram treinadas em dados domésticos, tornando os riscos ainda maiores.
A conclusão: As IAs não sabem o que não sabem. E isso pode ser muito perigoso. Com conteúdo da Axios.