L’intelligence artificielle sera au cœur des futures crises financières – et les régulateurs ne pourront pas la devancer. Tel est le message délivré par le président de la SEC, Gary Gensler, peut-être le régulateur le plus important et puissant aux États-Unis en ce moment.

Pourquoi c’est important : Un article écrit par Gensler en 2020, alors qu’il était professeur au MIT, est une ressource inestimable pour comprendre ces risques – et à quel point les régulateurs peuvent avoir peu de pouvoir pour les affronter.

L’ensemble de la situation : Le risque le plus évident de l’IA sur les marchés financiers est que les algorithmes de trading alimentés par l’IA, connus sous le nom de « boîtes noires », échappent à tout contrôle et que tout le monde finisse par vendre la même chose en même temps, provoquant un effondrement du marché.

  • « Il n’y a tout simplement pas autant de personnes formées pour construire et gérer ces modèles, et elles ont tendance à avoir des antécédents assez similaires », a écrit Gensler. « De plus, il y a de fortes affinités entre les personnes qui ont été formées ensemble : l’effet d’apprentissage. »
  • Le risque d’homogénéité des modèles pourrait également être créé par les réglementations elles-mêmes. Si les régulateurs exercent un contrôle sur ce que les IA peuvent et ne peuvent pas faire, cela augmente le risque que toutes finissent par faire la même chose en même temps, et augmente également la probabilité que les entreprises choisissent d’utiliser des offres d’IA en tant que service auprès d’un petit nombre de grands fournisseurs incontestés.

Soyez intelligent : Comme les règles gouvernant quand les modèles achètent et vendent sont opaques pour les humains et ne sont pas prévisibles à l’avance (voire même rétrospectivement), il est très difficile pour les régulateurs d’éviter un tel effondrement.

  • Comme l’a écrit Gensler : « Si les prédictions de l’apprentissage profond étaient explicables, elles ne seraient pas utilisées en premier lieu. »

En filigrane : Les risques de l’IA vont bien au-delà des algorithmes de trading.

  • De nombreuses IA sont dédiées à évaluer la capacité de crédit, par exemple. En raison de leur opacité, il est très difficile de déterminer si elles jugent les humains de manière discriminatoire. Et comme les IA évoluent constamment de manière imprévisible, il est impossible de savoir en temps réel si une IA qui n’était pas raciste hier peut être devenue raciste aujourd’hui.

Où en sommes-nous : « Il est probable que des lacunes réglementaires se soient déjà posées et puissent augmenter considérablement avec l’adoption croissante de l’apprentissage profond dans le domaine financier », a écrit Gensler. « Nous concluons que l’apprentissage profond augmentera probablement les risques systémiques. »

  • La réponse réglementaire la plus simple et probablement la plus efficace pourrait être d’augmenter le montant de capital que les institutions financières doivent conserver lorsqu’elles utilisent des outils d’IA (ou que leurs régulateurs le font).
  • Les régulateurs pourraient également exiger que tous les résultats générés par l’IA passent un « test de bon sens » d’un modèle linéaire plus ancien et plus explicable. Les entreprises pourraient être découragées ou interdites de prendre des mesures qui ne peuvent pas être largement expliquées en termes fondamentaux.

Niveau de menace : Les régulateurs pourraient être en mesure de ralentir la montée en puissance, mais il est très peu probable qu’ils puissent empêcher l’augmentation du risque systémique.

  • Gensler lui-même avait une longue liste d’approches réglementaires qui aideraient, mais il affirme clairement que, même prises ensemble, elles sont « insuffisantes pour la tâche » en question.

Le dilemme des données

L’IA a une « demande insatiable de données », a noté Gensler dans son article.

Pourquoi c’est important : Le risque est que les modèles d’IA convergeront inévitablement vers un point où tous partagent le même ensemble massif de données d’entraînement (Common Crawl, par exemple), collectivisant ainsi toutes les faiblesses inhérentes que cet ensemble pourrait avoir.

  • « Les modèles construits sur les mêmes ensembles de données généreront probablement des prédictions hautement corrélées qui progresseront de manière synchronisée, provoquant un encombrement et un effet de foule », a écrit Gensler.

La demande de sources de données massives tend à conduire à des monopoles.

  • Gensler a observé que la Intercontinental Exchange est silencieusement devenue dominante sur le marché des données hypothécaires, par le biais de ses acquisitions de MERS, Ellie Mae et Simplifile.
  • Ces monopoles peuvent devenir des « points uniques de défaillance » qui menacent l’ensemble du réseau – tout comme la faillite d’une seule banque d’investissement de taille moyenne, Lehman Brothers, a causé une catastrophe financière mondiale.

Même les ensembles de données les plus importants sont dangereusement incomplets. « L’utilisation d’Internet, de données d’appareils portables, de données de télémétrie et de données GPS et de smartphones n’a tout simplement pas de perspectives temporelles assez longues pour couvrir un seul cycle financier complet », a noté Gensler.

  • Cela peut avoir des conséquences dévastatrices – comme nous l’avons vu pendant la crise financière.
  • Le risque d’encombrement est déjà présent. « Il existe l’hypothèse que l’encombrement et l’effet de foule dans le trading algorithmique à haute fréquence sont partiellement responsables des flash crashes », a écrit Gensler. Alors que ces traders se tournent de plus en plus vers l’IA, ce risque ne peut que croître.
  • Les entreprises dans les économies en développement peuvent finir par utiliser des IA qui n’ont pas été formées sur des données nationales, ce qui accroît encore les risques.

Conclusion : Les IA ne savent pas ce qu’elles ne savent pas. Et cela peut être très dangereux. Avec des éléments de contenu d’Axios.