著名なAI研究者ジェフリー・ヒントンがグーグルを退社し、大量のフェイクニュースや自律兵器といったAIの脅威について世界に警告を発したことは大きな話題となった。彼は別の論文では目立たないようにしている。
ヒントンは、人間のような知性はディープラーニングによってのみ達成可能であり、それを凌駕する可能性もあると主張している。
ロンドンのキングス・カレッジで行われた講義で、ヒントン氏はAI業界で感情を揺さぶりそうなもうひとつの論文を発表した。
AIシステムはいつの日か感情的知能を持ち、感情があることを理解するようになるのだろうかという質問に対し、ヒントン氏は次のように答えた。私たちが望まない限り、AIはあなたと同じように痛みを感じることはないでしょうが、不満や怒りのような感情を持たないとは思えません」。
ヒントンの見解は、”哲学者の間では不評な “感情の定義に基づいている。それは、感情状態(怒り)を伝える方法として、仮定の行動(「ゲーリーの鼻を殴りたい気分だ」)を関連付けるというものだ。AIシステムはこのようなコミュニケーションを行うことができるため、このAI研究者は、AIシステムに感情を帰属させることができない理由はないと考えている。実際、彼はAIがすでに感情を持っていることを示唆している。
優れたAIが人類を脅かすという彼の最初のテーゼは、すでに抵抗に遭っているため、彼はこれまでこのことを公言しなかった。もし彼が機械の感情についての論文を追加していたら、人々は彼をクレイジーとみなし、聞く耳を持たなくなっただろう、とヒントンは主張している。
LLM(制約の少ない言語モデル)は、訓練を通じて学習した感情表現に、ありそうな感情を静的に反映させることしかできないからだ。LLMが本当に感情を持つのであれば、意識を理解することで対応する必要があるだろう。しかし、意識を測定する科学的手段はない。