最近、AIが意識を獲得するという主張が再燃している。しかし、人工的なシステムが自意識を獲得するためには、果たして何が必要なのだろうか?
2022年6月、グーグルのエンジニアであるブレイク・レモワンは、同社のチャットボット「LaMDA」が感覚を獲得したと主張し、大きな話題となった。レモワンは、このソフトウェアは早熟な7歳児並みの会話能力を持っており、世界についても同様の認識を持っていると考えなければならない、と述べた。
後にBardとして公開されたLaMDAは、OpenAIのChatGPTボットのエンジンでもある「大規模言語モデル」(LLM)を搭載している。他の大手テック企業も同様の技術の導入を急いでいる。
すでに何億人もの人々がLLMで遊ぶ機会を得ているが、それを意識している人はほとんどいないようだ。言語学者でデータサイエンティストのエミリー・ベンダーの詩的な言葉を借りれば、LLMは「確率的オウム」であり、理解することなく説得力のあるおしゃべりをする。しかし、次世代の人工知能(AI)システムはどうだろうか?
哲学者、神経科学者、コンピューター科学者からなる私たちのチームは、人間の意識がどのように機能するかについての現在の科学理論を調べ、仮に意識を持つシステムが持つ必要があると思われる基本的な計算特性のリストを作成した。しかし同時に、未来のシステムが真に意識を持つようにならない明白な理由もない。
指標の発見
コンピューティングのパイオニアであるアラン・チューリングが1950年に「模倣ゲーム」を提唱して以来、会話の中で人間になりすます能力は、しばしば意識の信頼できる指標とされてきた。これは通常、そのタスクが非常に難しく、意識を必要とするに違いないと思われたからである。
しかし、1997年にチェスコンピュータのディープ・ブルーがグランドマスターのゲーリー・カスパロフを破ったように、LLMの流暢な会話はゴールポストを動かすだけかもしれない。人間の認知の何が難しいのか、何が特別なのかという直感に依存しない、AIの意識の問題にアプローチする原理的な方法はあるのだろうか?
我々の最近の白書は、まさにそれを目指している。私たちは、人間に意識を持たせる要因に関する現在の科学理論を比較し、AIシステムに適用可能な「指標となる特性」のリストを作成した。
私たちは、指標となる特性を持つシステムが間違いなく意識を持つとは考えていないが、指標が多ければ多いほど、AIの意識に関する主張をより真剣に受け止めるべきである。
意識の背後にある計算プロセス
私たちはどのような指標を探していたのだろうか?私たちは、人と会話ができるというような明らかな行動基準は避けました。
その代わりに、人間の脳で意識を支える計算過程の理論に注目した。これらの理論は、主観的な経験を支えるために必要な情報処理について教えてくれる。
例えば、「グローバル・ワークスペース理論」は、脳のあらゆる部分から情報を集め、グローバルに利用できるように情報を選択する、容量に制限のあるボトルネックの存在から意識が生じると仮定する。「リカレント・プロセッシング理論」は、後のプロセスから前のプロセスへのフィードバックの役割を強調する。
それぞれの理論は、より具体的な指標を提示している。最終的なリストは14の指標で構成されており、各指標はシステムがどのように振る舞うかではなく、どのように働くかという側面に焦点を当てている。
現在のシステムが意識的であると考える理由はない
現在のテクノロジーはどうなのだろうか?我々の分析によれば、現在のAIシステムに意識があると考える理由はない。
いくつかの指標は満たしている。ChatGPTや同様のツールの背後にある機械学習モデルの一種であるトランスフォーマーアーキテクチャを使用したシステムは、「グローバルなワークスペース」の指標のうち3つを満たしているが、グローバルな中継のための重要な機能を欠いている。他の指標もほとんど満たしていない。
そのため、ChatGPTの素晴らしい会話能力にもかかわらず、おそらく中には誰もいないでしょう。他のアーキテクチャも、せいぜい一握りの基準を満たす程度だ。
今日のほとんどのアーキテクチャは、せいぜい数個の指標を満たす程度だ。しかし、ほとんどの指標について、それを満たす現在のアーキテクチャが少なくとも1つは存在する。
このことは、ほとんどの、あるいはすべての指標を満たすAIシステムを構築することに、原理的には明白な技術的障壁がないことを示唆している。
おそらく、そのようなシステムが構築されるかどうかよりも、いつ構築されるかが問題なのだろう。もちろん、そうなっても多くの疑問は残るだろう。
人間の意識を超えて
私たちが分析した科学理論(そして記事の著者たち!)は、必ずしも互いに一致しているわけではない。この事実を認識するために、私たちは厳密な基準ではなく、指標のリストを用いている。これは、科学的な不確実性に直面したときに強力な方法論となる。
私たちは、動物の意識に関する同様の議論に触発された。私たちの多くは、少なくとも一部の人間以外の動物は、彼らが感じていることを私たちに話すことができないという事実にもかかわらず、意識があると考えている。
ロンドン・スクール・オブ・エコノミクスが2021年に発表した、タコのような頭足類はおそらく痛みを感じると主張する報告書は、英国の動物倫理方針を変えるきっかけとなった。構造的な特徴に注目すると、昆虫のような単純な動物でさえ、最低限の意識を持っているかもしれないという驚くべき結果になる。
私たちの報告書は、意識のあるAIをどうするかについては提言していない。この問題は、AIシステムがより強力になり、広く普及するにつれて、より緊急性を増すだろう。
しかし、この複雑な問題に科学的な根拠を持って取り組むための第一歩となることを願っている。