人工知能は将来の金融危機の中心に位置する可能性があり、規制当局はその先回りをすることができないかもしれません。これは、SEC(証券取引委員会)の議長であり、アメリカ合衆国において現在最も重要で強力な規制当局とされるゲーリー・ゲンスラー氏によって伝えられたメッセージです。
なぜこれが重要か:ゲンスラー氏がMITの教授であった2020年に執筆した記事は、これらのリスクを理解しようとする上で非常に貴重な情報源であり、規制当局がそれらに対処しようとする際にどれほど少ないことができるかを示しています。
全体像:金融市場におけるAIの最も顕著なリスクは、AIによって駆動される取引アルゴリズム、いわゆる「ブラックボックス」が制御を失い、皆が同じタイミングで同じものを売却し、市場が崩壊する可能性です。
- 「単に、これらのモデルを構築し管理するために訓練された人々はそう多くはいなく、彼らは非常に似たようなバックグラウンドを持っている傾向があります」とゲンスラー氏は書きました。「さらに、一緒にトレーニングされた人々の間には強い親和性があります:いわゆる学習効果」。
- モデルの均質性のリスクは、規制によっても生まれる可能性があります。規制当局がAIにできることとできないことをコントロールする場合、すべての企業が同じことを同時に行うリスクが増し、また、AIの提供を数少ない大手の信頼性のあるプロバイダに頼ることを選択する可能性も高まります。
賢明であること:モデルが取引を行うタイミングを規制するルールは人間にとっては不透明であり、事前に(あるいは後からでさえ)理解することができないため、規制当局がそのような崩壊を避けるのは非常に難しいです。
- ゲンスラーが書いたように、「深層学習の予測が説明可能であれば、まず最初に使用されることはありませんでした。」
背後には:AIのリスクは取引アルゴリズムを超えています。
- 多くのAIは、たとえば信用力を判断するために使用されています。その透明性のため、それらが人間を差別的に判断しているのかどうかを判断することは非常に難しいです。また、AIは予測不可能に常に進化しているため、昨日は差別的でなかったAIが今日は差別的になっている可能性も、リアルタイムで分かるわけではありません。
現状:ゲンスラーは書いています。「おそらく、規制のギャップが生じ、金融分野での深層学習の大規模な採用によりこれらのギャップが大きく広がる可能性があります。」また、「我々の結論は、深層学習がおそらくシステムリスクを増加させるであろう」となっています。
- 最も単純で効果的な規制対応策は、金融機関がAIツールを使用する際(またはその規制機関が使用する際)に保持する必要のある資本額を増やすことです。
- また、規制当局は、すべてのAIによって生成された結果が、より伝統的で説明可能性の高い線形モデルの「臭いテスト」を通過することを要求することも考えられます。企業は、基本的な理由に関して広く説明できない行動を取ることが妨げられたり、禁止されたりする可能性があります。
脅威のレベル:規制当局は増加率を遅らせることができるかもしれませんが、システムリスクの増加を完全に防ぐことは非常に困難です。
ゲンスラー自身も、多くの規制アプローチが役立つという長いリストを持っていますが、彼は明確に述べていますが、それらをすべて組み合わせても、これらのアプローチは「対処するためには不十分」であると述べています。
データのジレンマ
AIには「飽くなきデータの需要」があるとゲンスラーは記事で指摘しています。
なぜこれが重要か:リスクは、AIモデルが不可避的に同じ大規模なトレーニングセット(例:Common Crawlなど)を共有する点に収束する可能性があり、そのセットに固有の弱点を集団的に共有してしまう可能性があることです。
- 「同じデータセットで構築されたモデルは、おそらく高度に相関する予測を生成し、同期して進行する可能性が高く、群衆の動きや群れの形成を引き起こす可能性があります」とゲンスラーは書きました。
巨大なデータソースへの需要は、独占を引き起こす傾向があります。
- ゲンスラーは、Intercontinental ExchangeがMERS、Ellie Mae、Simplifileを買収することで、住宅ローン市場のデータ市場で静かに優勢な地位を確立したことを指摘しました。
- これらの独占は、「単一の障害点」になる可能性があり、全体のネットワークを脅かすことがあります — まるで中規模の投資銀行であるリーマン・ブラザーズの倒産が、世界的な金融危機を引き起こしたようにです。
最大のデータセットでさえ、危険なほど不完全です。「インターネットの使用、ウェアラブルデバイスのデータ、テレメトリックデータ、GPSおよびスマートフォンのデータは、単一の金融サイクルを十分にカバーするには時間的な視野が十分でない」とゲンスラーは指摘しています。
- これによって壊滅的な影響が生じる可能性があります — これは金融危機の際に私たちが見た通りです。
- 既に集中リスクは存在しています。「高頻度アルゴリズム取引の集中と群れが閃光クラッシュの一因である可能性がある」とゲンスラーは書いています。これらのトレーダーがますますAIに頼るようになるにつれ、このリスクはますます高まる可能性があります。
- 途上国の企業は、国内データでトレーニングされていないAIを使用する可能性があり、これによりリスクがさらに高まるかもしれません。
結論:AIは自分が何を知らないかを知りません。そして、これは非常に危険なことです。Axiosの内容を含む。