ビッグテックによるAI黙示録の警告は、その製品によって引き起こされる長年の実害から私たちの目を逸らしている。
火曜日の朝、人工知能のマーケティング担当者たちは、再び自社製品の実存的な力について警告を発した。オープンAIのCEOであるサム・アルトマンやビル・ゲイツを含む、何百人ものAI幹部、研究者、その他の技術者やビジネス界の著名人が、「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争といった他の社会的規模のリスクとともに、世界的な優先事項であるべきだ」と宣言する、AI安全センターが書いた1文の声明に署名した。
この22の言葉は、オープンAI、マイクロソフト、グーグル、その他のテック企業の幹部が数週間にわたる視察ツアーを行った後に発表されたもので、AIの限定的な規制を訴えた。彼らは議会や欧州連合(EU)などで、企業が技術に何十億ドルもの投資を続けるなかでも、製品の害を食い止めるために産業界と政府が協力する必要性について語った。著名なAI研究者や批評家の何人かは、その美辞麗句に懐疑的であり、ビッグ・テックの規制案は水増しされた利己的なものに見えると私に語った。
シリコンバレーは、AIの害が推測ではなく具体的なものであることを示す長年の研究に対して、ほとんど敬意を示してこなかった。OpenAIのChatGPTが立ち上げられ、資金が次々と提供されるようになった今になって初めて、安全性に関心があるように見せかけることに大きな関心があるようだ。「大量監視に反対する非営利団体、Surveillance Technology Oversight Projectのエグゼクティブ・ディレクター、アルバート・フォックス・カーンは言う。
絶滅」に対する恐怖の根底にあるのは、AIが恐ろしいほどの能力を持つようになる運命にあるという、明言されていない仮定である。「ワシントン大学の計算言語学者であるエミリー・ベンダーは、「人類を絶滅させるほど強力な製品になる」と言う。この仮定は、暗黙のプロパガンダを提供している。CEOたちは、半神のように、火や 電気、核分裂、あるいはパンデミックを引き起こすウイルスと同じくらい変革的なテクノロジーを使っているのだ。投資しないのは愚かである。また、タバコ会社や石油王、フェイスブックの危機管理コミュニケーションを真似ることで、批判から免れることも狙っている。
しかし、AIによる黙示録はまだSFである。AIナウ研究所の共同設立者であり、シグナル社の社長であるメレディス・ウィテカーは、「規制が解決すべき問題から注意をそらすために、空想的で刺激的なストーリーが使われている」と述べた。GPT-4のようなプログラムは以前のバージョンより改善されましたが、少しずつしか改善されていません。しかし、マイクロソフトやグーグルが提供するAIが文明の終焉をもたらすと考える理由はない。「データやパラメータが増えるだけで、システムがどのように機能するかという根本的な変化は起こっていない」とウィテカーは言う。
自社をマンハッタン計画、自らをロバート・オッペンハイマーに例えるアルトマンは、AI絶滅警告に署名する2週間前、絶滅宣言の予言をよりトーンダウンさせたものを議会に提出した。上院の委員会で証言した彼は、「ますます強力になるモデルのリスクを軽減するためには、政府による規制介入が重要になる」と述べた。アルトマンも上院議員も、このパワーの増大は不可避であり、関連するリスクはまだ実現していない「潜在的な結果」として扱った。
しかし、私が話を聞いた専門家の多くは、AIが現在の能力からどこまで進歩するかについては懐疑的であり、AIが進歩しなくても人に危害を加えることはない-実際、多くの応用例がすでにそうなっている-ときっぱりと述べた。つまり、AIが有害かどうかではなく、どのような危害がより懸念されるのか、つまり、AIの設計者だけが警告を発し、独占的に防ぐことができると主張している未来のAIの大変動と、政府や研究者、一般市民が長い間戦い、対抗してきたより日常的な暴力と、誰が危険にさらされ、どのようにすればその危害を防ぐことができるのか、という点で意見が分かれているのだ。
人種差別的な顔認識や性自認を正しく認識できないこと、偏った医療診断や 性差別的な採用アルゴリズムなどは、最もよく知られた例である。カーンは、そうでないことが証明されるまでは、AIは偏っていると考えるべきだと述べている。さらに、高度なモデルは、データセットに関する著作権侵害や、その生産に関する労働違反で非難されることも多い。合成メディアは、金融詐欺や 非合意のポルノでインターネットを氾濫させている。アルゴリズムによる偏見を研究しているMozillaのフェロー、デボラ・ラジは、絶滅宣言やその他の場所で提示されたAIに関する「SFの物語」は、「私たちが今日着手できる実現可能な領域から私たちの目をそらす」と述べた。アルゴリズムによる害は今日、社会から疎外されたコミュニティに影響を及ぼすことがほとんどで、そのため無視されやすいのですが、文明が崩壊すれば、特権階級にも害が及ぶことになります」。「サム・アルトマンが何かを言うとき、たとえそれがこれらの害が実際にどのように発生しているのかから切り離されていたとしても、人々は耳を傾けるのです」とラジは言う。
たとえ人々が耳を傾けたとしても、その言葉は空虚に感じられる。アルトマンの上院証言のわずか数日後、彼はロンドンで記者団に対し、EUの新しいAI規制が厳しすぎる場合は、大陸での「事業停止」もあり得ると語った。この明らかな立場の変化は反発を招き、アルトマンはその後、OpenAIはヨーロッパから「撤退する予定はない」とツイートした。ワシントン大学のエミリー・ベンダーは、「実に賢明な規制が、ビジネスモデルを脅かしているようだ」と語った。アルトマンの発言と規制に対する同社の立場についてコメントを求めた電子メールへの回答で、OpenAIの広報担当者は、「我々の使命を達成するためには、現在および長期的なリスクの軽減に取り組む必要があります」と書き、同社はそのために「政策立案者、研究者、ユーザーと協力しています」と述べた。
規制による茶番劇は、シリコンバレーの常套手段だ。2018年、フェイスブックが偽情報とプライバシーのスキャンダルに揺れた後、マーク・ザッカーバーグは議会で、自社には「ツールを作るだけでなく、それが良いことに使われるようにする責任がある」と述べ、「適切な規制」を受けると語った。メタのプラットフォームは、それ以来、選挙工作やパンデミック誤報を制限することに惨敗している。2022年初頭、サム・バンクマン=フリードは議会で、連邦政府は暗号通貨について「明確で一貫した規制ガイドライン」を確立する必要があると述べた。その後、彼自身の暗号通貨会社が詐欺であることが判明し、エンロン・スキャンダルに匹敵する規模の金融詐欺で逮捕された。「私たちは、フェイスブックやツイッターのような、規制当局からますます厳しい監視の目を向けられているテック・プラットフォームとの関わりを避けようとする、実に抜け目のない試みを見ているのです」とカーン氏は言う。
絶滅宣言の署名者の少なくとも何人かは、超知的機械が人類を絶滅させる可能性があると心から信じているようだ。この宣言に署名し、AIの “ゴッドファーザー “と呼ばれることもあるヨシュア・ベンジオ氏は、テクノロジーが非常に高性能になり、反抗的な意識体として、あるいは人間の手によって、世界を滅ぼしかねない大災害を引き起こす危険性があると信じていると私に語った。「もしそれが実存的なリスクであれば、チャンスは一度しかないかもしれない。
AI安全センターのダン・ヘンドリクス所長も、こうしたリスクについて同じように考えていると話してくれた。彼はまた、国民は現在の「企業間のAI軍拡競争を終わらせる必要があり、そこでは基本的に安全性よりもAI技術の開発が優先される」と付け加えた。ヘンドリクスによれば、グーグル、マイクロソフト、オープンAI、ディープマインド、アンソロピック、スタビリティAIのリーダーたちが彼のセンターの警告に署名したことは、真の懸念の表れかもしれないという。アルトマンはOpenAIが設立される以前からこの脅威について書いていた。しかし、「その寛大な解釈の下でも」、ベンダー氏は言う。
自社製品の経験則や空想上の危害に対するこれらの企業の解決策は曖昧で、決まり文句に満ちており、専門家が私に語ったAI規制が実際に必要とするものについての確立された研究成果から逸脱している。アルトマンは証言の中で、AIに特化した新しい政府機関を設立する必要性を強調した。マイクロソフトも同様だ。「シグナルのウィテカーは、「これは蒸し返された残り物だ。私は2015年、”新機関は必要か?”というテーマで会話に参加した。”それは古い船で、通常はカクテルパーティーに行く前のダボス会議の場で、ハイレベルの人々が推測するものだ”。そして、新たな機関、あるいはあらゆる探索的な政策イニシアチブは、「実現に近づくには何十年もかかる長期的な目標だ」とラジは言う。その間、AIは無数の人々に危害を加えるだけでなく、さまざまな企業や機関に根付く可能性があり、意味のある規制を非常に難しくする。
この約10年間、専門家たちはAIによる害を厳しく 研究し、より現実的な防止策を 提案してきた。可能性のある介入策としては、トレーニングデータやモデル設計の公開文書化、自社製品が医療誤報や中傷、その他の有害なコンテンツを広めた場合に企業の責任を追及する明確なメカニズム、独占禁止法、あるいは単に市民権や知的財産権、消費者保護に関連する既存の法律の施行などが考えられる。「もしある店が、人間の意思決定によって組織的に黒人の顧客をターゲットにしているとしたら、それは公民権法違反です。「私にとっては、アルゴリズムがそれを行うことに違いはない。同様に、チャットボットが人種差別的な法律意見を書いたり、間違った医療アドバイスをしたり、著作権で保護された文章を訓練したり、金銭をだまし取ったりした場合、現行の法律が適用されるべきだ。
黙示録的な予測や新しいAI機関を求める声は、「規制妨害の試み」に等しいとウィテカーは言う。このテクノロジーを販売し利益を得ているまさにその人たちが、機関とその権限を「形成し、空洞化し、事実上妨害する」だろうからだ。議会で証言するアルトマンや、様々なCEOとジョー・バイデン大統領による最近の「責任あるAI」会議を見ればわかる。ソフトウェアを開発し利益を得ているのは、政府に対してどのようにアプローチすべきかを指示しているのと同じ人たちなのだ。UCLAのインターネット研究者であり、『Algorithms of Oppression(抑圧のアルゴリズム)』の著者であるセフィヤ・ノーブル氏は、「人々が公平性、正義、公正さを求めているのは、何十年にもわたる非常に具体的な規制なのです」と語る。「AI企業が口にする規制は、自分たちの利益に有利なものです」。これらの企業はまた、今年の最初の3ヶ月間だけで、議会に何百万ドルものロビー活動を行った。
AI規制に関する数年前の会話から本当に変わったのは、ChatGPTというプログラムだけだ。ChatGPTは、人間のような言語を生成することで、消費者や投資家を魅了し、シリコンバレーにプロメテウスのようなオーラを与えている。しかし、この神話の下で、AIの被害の多くは変わっていない。このテクノロジーは監視とデータ収集に依存し、創造的かつ肉体的な労働を搾取し、偏見を増幅し、意識的でない。規制のために必要なアイデアやツールは、これらの問題に対処し、おそらく企業の利益を減らす必要があるが、見ようとする人は誰でも利用できる。22文字の警告はツイートであって聖典ではない。今この瞬間、アルゴリズムが誰かに危害を加えているという事実は、10年前にこの文章を読めば事実であっただろうし、今もそうである。
内容はThe Atlanticより。