AIのトップ研究者や業界のリーダーたちは、AIの極度のリスクを核戦争と同様に深刻に受け止めるよう求める公開声明を発表した。

「AIによる絶滅リスクを軽減することは、パンデミックや核戦争といった他の社会規模のリスクと並んで、世界的な優先事項であるべきだ」と、AI安全センターが本日発表した声明は訴えている。

この声明には、オープンAI、グーグルディープマインド、アンソロピックを含む主要AI企業のCEO、米国と中国のトップAI科学者が署名している。

「歴史的連合

「これは、哲学者、倫理学者、法学者、経済学者、物理学者、政治学者、パンデミック科学者、核科学者、気候科学者とともに、AIの専門家が歴史的な連合を組んだことを意味する。

AIの悪影響はすでに感じられ、対処する必要がある。しかし、高度なAIシステムによる将来のリスクを予測することも必要だという。

「AIのリスクを研究するシンクタンク、KIRAの共同設立者であるシャーロット・シーグマンは、「AIが人類の終焉につながるという話は、SFのように聞こえるかもしれない。「濫用、競争、無知、不注意、そして現在と未来のシステムをコントロールできないこと。公開書簡はこのことを強調している。

ヤン・ルクンとメタは欠席

この声明に署名した著名人には以下のようなものがある:

  • 大手AI研究所のCEO:サム・アルトマン、デミス・ハサビス、ダリオ・アモデイ
  • 人工知能の標準的な教科書の著者(スチュアート・ラッセルとピーター・ノービグ)
  • ディープラーニングの標準教科書の著者2名(イアン・グッドフェロー、ヨシュア・ベンジオ)
  • 強化学習に関する標準的な教科書の著者1名(アンドリュー・バルト)
  • チューリング賞受賞者3名(ジェフリー・ヒントン、ヨシュア・ベンジオ、マーティン・ヘルマン)
  • マイクロソフト、オープンAI、グーグル、グーグルディープマインド、アンソロピックの幹部(メタは署名しなかった
  • AlphaGoやGPTの全バージョンのような有名なAIシステムを開発した科学者たち(デビッド・シルバー、イリヤ・スッツケバー)
  • 最も引用されている2人のコンピューター科学者(ヒントンとベンジオ)と、コンピューター・セキュリティとプライバシーの分野で最も引用されている学者(ドーン・ソング)
  • 中国の大学のAI教授たち
  • パンデミック、気候変動、核技術を研究する教授たち
  • その他の署名者には、マリアン・ロジャース・クローク(VoIP(ボイス・オーバー・インターネット・プロトコル)の発明者)、カースティ・カルジュレイド(エストニア共和国元大統領)などがいる。

チューリング賞受賞者の一人が欠落している。メタ社のAI責任者ヤン・ルクンは署名しておらず、メタ社自体もリストに含まれていない。同社は現在、オープンソースの方針を掲げており、例えば強力なLLaMAモデルを開発している。また、最近米国上院でAI研究と企業の規制強化を支持する証言を行ったゲイリー・マーカスも現在欠席している。

署名者の一人は、応用的でスケーラブルなアライメント研究を専門とするConjecture社のCEO、コナー・レイヒー氏である。最近の機械学習ストリートトーク番組のエピソードで、彼はAIが実存的なリスクをもたらす理由と、それを管理する方法について詳しく説明している。