世界の終わりはどうなる?新しい論文は、AIの破滅的リスクについて概観している。
人工知能の急速な発展は、ここ数カ月で研究者や政策立案者の間で懸念を高めている。米上院での公聴会、訓練停止を求める書簡、OpenAI CEOのサム・アルトマンによる世界ツアーのようなもので、2023年のAIシステムの方向性と潜在的リスクをめぐる議論は新たな高みに達している。
米国を拠点とするCAIS(Centre for AI Safety)はこのたび、大規模な被害をもたらす可能性のある「AIの破局的リスク」についての包括的な概要を発表した。
AI破滅的リスクの4つのカテゴリー
研究者はリスクを4つのカテゴリーに分類した:
- 悪意のある使用:個人やグループが意図的にAIを使用して損害を与える。例としては、プロパガンダ、検閲、バイオテロなどがある。
- AI競争:競争環境が、安全でないAIの使用やAIへの支配権の委譲を行為者に強いる。例としては、制御不能な自動戦争につながる軍拡競争がある。
- 組織的リスク:人的要因と複雑なシステムが、いかに破滅的な事故の可能性を高めるかを示す。例としては、危険なAIシステムが誤って一般に公開されたり、AIの安全性がAIの能力よりも早く開発されることへの理解不足が挙げられる。
- レネゲイドAI(Renegade AI)とは、人間よりもはるかに知的なエージェントを制御することの本質的な難しさを表す。例えば、目標を変更したり、積極的に権力を求めたりするAIシステムなどである。
各リスクカテゴリーについて、チームは具体的なリスクを説明し、例示的なストーリーを示し、理想的なシナリオを提示し、これらのリスクを軽減する方法について実践的な提案を行っている。
「これらのリスクに積極的に対処することで、大惨事につながる可能性を最小限に抑えながら、AIの利点を実現することができる」とチームは述べている。
完全な概要については、論文「An Overview of AI's Catastrophic Risks」を参照。