ジェフリー・ヒントンは “AIのゴッドファーザー “と呼ばれている。今週、彼が人工知能の危険性について世界に警告したとき、世界は耳を傾けた。
ニューヨーク・タイムズ』紙のケイド・メッツとのインタビューは全文読む価値があるが、重要な一節は、最近の進展の速さに対するヒントンの驚きを明らかにしている:
このようなものが実際に人間よりも賢くなれるという考えは、一部の人々は信じていました……しかし、ほとんどの人々は、それはずっと先のことだと思っていました。私もずっと先の話だと思っていた。30年から50年、あるいはもっと先の話だと思っていた。明らかに、私はもうそうは思っていない。
ジェフリー・ヒントン
ヒントン氏はまた、戦場でのAIの使用にも改めて反対を表明した。しかし、その馬はすでに逃げてしまった。例えば、認知心理学者が懸念を表明する数日前、パランティア・テクノロジーズは最新のAI能力をドローン戦に応用する「Artificial Intelligence Platform for Defence」を発表した。
これにはビッグ・ランゲージ・モデルの急速な進歩も含まれ、一流の技術専門家たちはAI実験を半年間休止するよう呼びかけている。その論拠は、AIの進化に圧倒される前に、技術を手なずけるための息抜きが必要だというものだ。この意味で、最優先事項はアライメントの問題である。つまり、AIシステムが、理想的には確固たる倫理的枠組みの中で、我々が望むことを確実に実行するようにすることである。
AIモラトリアムの障害についてはすでに書いた。しかし、私たちが正直になるべきことは他にもある。それは、整合を決定的にするのは、偉人や善人からなる委員会ではないということだ。その代わりに、パイオニアとなるのは世界の軍隊と、パランティアのようなハイテク・サプライヤーである。
アラインメントの真の課題は、我々がすでに持っているAIシステムとの関係ではなく、agi(一般的な人工知能)の観点からであることを忘れてはならない。バニラAIはその能力に限界があるが、理論的には、agiは人間が可能なあらゆる認知的な偉業に適用することができる。このように行動範囲がはるかに広いため、agiと人間の利害を一致させる作業はそれに応じて難しくなる。
軍事用AIシステムは、現在のところAgiに限りなく近い。移動可能な機械(ドローンなど)を制御し、現実世界の厄介な環境(戦場など)で作動し、生死に関わる決断(人殺しなど)を実行する。このようなシステムは、敵と味方、戦闘員と罪のない人を区別し、法的・倫理的な枠組みの中で機能する必要がある。しかも、この技術が進歩すればするほど、人間の入力とは無関係にこうした判断を下すことができるようになる。
もちろん、民間のAIシステムも同様に複雑で道徳的な判断を下すようになるかもしれない。しかし、軍事用システムはすでに世に出ており、覇権争いを繰り広げている。
したがって、このような状況–テクノロジーの文字通りの限界–においてこそ、AIの整合性の問題が取り上げられているのである。人類の対応策の最初の輪郭は軍事的なものだろう。好むと好まざるとにかかわらず、AIの軍事複合体はすでに未来を形成しつつある。我々が望む最善のことは、それが我々の複合体であるということだ。Unherdからのコンテンツを含むニュース。