火曜日、Centre for AI Safety(CAIS)は、チューリング賞を受賞したOpenAIとDeepMindの幹部と他のAI研究者が署名した一文の声明を 発表し、彼らのライフワークが全人類を絶滅させる可能性があると警告した。

CAISによれば、この短い声明は、「AIの広範で重要かつ緊急なリスク」というテーマについて議論を開くことを意図したもので、次のように書かれている。”AIによる絶滅のリスクを軽減することは、パンデミックや核戦争といった他の社会的規模のリスクと並んで、世界的な優先事項であるべきだ。”

この声明の著名な署名者には、チューリング賞受賞者のジェフリー・ヒントン、ヨシュア・ベンジオ、OpenAI CEOのサム・アルトマン、OpenAIチーフ・サイエンティストのイリヤ・スーツケバー、OpenAI CTOのミラ・ムラティ、ディープマインドCEOのデミス・ハサビス、Anthropic CEOのダリオ・アモデイ、UCバークレー、スタンフォード、MITの教授らが含まれる。

この声明は、アルトマンが世界中を飛び回り、AIとその潜在的危険性について各国首脳と会合を開いている最中に発表された。アルトマンは5月上旬、米上院で自身の業界に対する規制を提唱した。

CAISの公開書簡は、その簡潔な長さを考慮すると、含まれていない内容で注目に値する。例えば、パックマンのゴーストムーブから、1940年代の巧妙なギャングのスタイルでソネットを書ける言語モデルまで、この言葉が適用される可能性があることを考えると、「AI」が何を意味するのか正確には特定されていない。また、この書簡では、絶滅のリスクをどのように軽減することができるのかについては示唆しておらず、「世界的な優先事項」であるべきだとだけ述べている。

しかし、CAISは関連するプレスリリースの中で、「AIのリスクが私たちを油断させないように、安全装置と制度を確立したい」と述べ、AIについての警告を、J・ロバート・オッペンハイマーが原子爆弾の潜在的影響について行った警告と比較している。

AI倫理学者たちは感心していない

foto do mundo com IA

AIが世界を終わらせるかもしれないという危険の仮説に関する公開書簡は、これが今年初めてではない。3月には、Future of Life Instituteがイーロン・マスクの署名入りでより詳細な声明を発表し、「GPT-4よりも強力な」AIモデルの6カ月間の一時停止を提唱した。この声明は広く報道されたが、機械学習コミュニティからも懐疑的な声が上がった。

AIの倫理に焦点を当てることの多い専門家たちは、この新たな公開書簡の傾向に感心していない。

Hugging Faceの機械学習研究科学者であるサーシャ・ルッチョーニ博士は、CAISの新しい書簡を手品に例えて言う。「まず第一に、パンデミックや気候変動といったごく最近に発生し、一般の人々にも目に見える非常に具体的なリスクと並んで、AIの実存的な仮定のリスクについて言及することで、より信頼性を高めています。一つのこと(将来のリスク)に注意を向けさせることで、別のこと(偏見、法的問題、同意といった目に見える現在のリスク)について考えさせないようにするのです」と彼女は言う。

作家で未来学者のダニエル・ジェフリーズは次のようにツイートした:「AIのリスクと危害は、今や公式には、皆が見栄を張るために集まるステータスゲームになっている。見栄えがいい。コストはかからない。見た目がいい。基本的にはそれだけだ

最近の公開書簡の背後にある組織、Center for AI Safetyはサンフランシスコを拠点とする非営利団体で、その目的は技術研究とアドボカシー活動を通じて「人工知能の社会的規模のリスクを減らす」ことである。共同設立者の一人であるダン・ヘンドリックスは、カリフォルニア大学バークレー校でコンピューターサイエンスの博士号を取得し、以前はディープマインドでインターンとして働いていた。もう一人の共同設立者であるオリバー・チャンは、AIの仮想的な危険性に焦点を当てていることで知られるオンラインコミュニティ、LessWrongフォーラムにAIの安全性について投稿することがある。

機械学習のコミュニティでは、AIの安全性に関する研究者の一部が、人間よりも指数関数的に賢い超知的AIが間もなく出現し、囚われの身から脱出して人類の文明を乗っ取るか、完全に絶滅せるのではないかと特に恐れている。AGI」の到来に対するこのような信念が、現在間違いなく生成AIのリーディング・プロバイダーであるOpenAIの基本的なセキュリティ研究に反映されている。この会社はマイクロソフトの支援を受けており、同社のAI技術をウィンドウズを含む多くの製品に組み込んでいる。つまり、AIが暗黒の運命をたどるという終末論的なビジョンが、テック業界の一部で深く浸透しているということだ。

このような危険な事態を憂慮する人々がいる一方で、漠然とした公開書簡に署名することは、AIによる被害を拡大させる可能性のある人々にとって、良心の呵責を和らげる簡単な方法だと主張する人々もいる。「このテクノロジーを生み出したのは自分たちなのだから、署名した人たちは物語の主人公のように見える」とルッチョーニは言う。

はっきりさせておきたいのは、ルッチョーニや彼の同僚たちのような批評家たちは、AI技術が無害だとは考えていないことだ。しかし、仮定の未来の脅威を優先させることは、今存在するAIの害、つまりAIツールを販売する大企業が忘れたがっている複雑な倫理的問題から目をそらすことになると主張している。

「監視に基づいて同意していない服を着ることを強制されたイランの女性から、誤った顔認識に基づいて不当に投獄された人々、監視とコンピュータ・ビジョン技術に基づく中国のウイグル人の扱いまで」。

高度な人工知能が人類を脅かす日が来る可能性はあるが、2023年という稚拙な終末シナリオに焦点を当てるのは建設的でも有益でもないと、これらの批評家は言う。現実に存在しないものを研究することは不可能だと彼らは指摘する。

「AIの存続リスクは、現在存在しない空想であり、存在しないものを修正することはできない」とジェフリーズは同様のツイートをしている。「明日の架空の問題を解決しようとするのは、まったくもって時間の無駄だ。今日の問題を解決し、明日の問題は、そこに到達したときに解決されるだろう”内容はarthechnicaから。