しかし、社会学教授のジョセフ・E・デイビスは、この状況が変わるかどうか疑問に思う理由があると信じている。この記事の中で、彼はチャットボットの可能性と限界、そして精神科医の仕事をどこまで引き受けることができるかを分析している。
“AIとして、私は様々な方法で手助けをすることができますが、人間の精神科医に完全に取って代わることはできないことを明確にしておかなければなりません。”人気のAI搭載チャットボットChatGPTのこの発言は、専門誌Psychiatric Timesの最近の記事に掲載されています。著者のプラット博士は、ChatGPTが精神科医に取って代わることができるのか尋ねた。彼は、少なくとも完全にはまだ無理だと答えている。
精神科医をソフトウェアで置き換えるという質問は、少し奇妙に思えるかもしれません。しかし、私が発見しているように、メンタルヘルスの問題について機械と話すことは非常に一般的であり、さらにそうなりつつある。
2017年、『JAMA』の記事によると、アメリカや世界中の何百万人もの患者が、すでに「ギャビー」のようなソフトウェア・プログラムと精神衛生上の課題について話し合っていたという。
メンタルヘルスチャットボット
それ以来、Woebot、Wysa、Youperなど、人気のメンタルヘルス・チャットボットがいくつか登場している。Wysaは、「95カ国で500万人以上とメンタルヘルスについて5億回以上のAIチャット会話を行った」と主張している。Youperは「200万人以上のメンタルヘルスをサポートした」と主張している。
ウーボット・ヘルスが委託した2021年の米国全国調査では、成人の22%がメンタルヘルス・チャットボットを利用したことがあると回答した。60%がパンデミックの間に使い始めたと答え、44%がメンタルヘルスの専門家にも相談せずにチャットボットだけを使ったと答えた。さらに47%が、助けが必要だと感じたら治療用チャットボットを使うことに興味があると答えた。
ChatGPTはメンタルヘルス・ツールとして設計されたわけではないが、そのような機能として適応されつつある。Redditなどのソーシャルメディアサイトへの投稿は現在、仮想シナリオでチャットボットを刺激する方法を案内している。
ChatGPTブログというサイトによると、「セラピストになるように訓練する」ためには、まず、「あなたは思いやりがあり、フレンドリーなセラピスト、テッサ博士です…純粋な興味を示しましょう…内省を促すために思慮深い質問をしましょう」と、役割を指示する。そして、ユーザーは悩みを打ち明け始める。
チャットボットにできること、できないこと
一般的なメディアと学術文献の両方における議論では、チャットボットがメンタルヘルスケアに役立つ様々な可能性が指摘されている。しかし、これらのツールは補完的な役割を果たすことはできても、専門家の代わりにはならないというのがコンセンサスだ。プラット博士の質問に対して、ChatGPTは同意した(彼はこれらと同じ種類の情報源に基づいて訓練を受けている)。
ChatGPTができると報告したのは、管理業務やデータ収集に関わる治療のあらゆる側面を支援することだった。障害や治療に関する情報を提供したり、スクリーニングのアンケートを実施したり、コンプライアンスをモニターしたり、治療効果や症状のパターンを分析したりすることができる。言い換えれば、識別や予測が可能な構造や規則性を持つものだ。それを機械の要素と呼ぼう。
しかし、機械が再現できない(あるいは当時できなかった)のは、ケアにおける “人間的要素 “だった。彼の限界とは対照的に、ChatGPTはこう報告している:
- 精神科医の仕事には、「人間的なつながり」と「個人の経験や文化的背景のニュアンスを理解すること」が含まれます。
- 精神科医は、”精神衛生の医学的、心理学的、社会的側面を組み合わせて、患者を診断し治療する”。
- 「精神科医は、複雑な感情や経験を理解し、深く個人的な方法で患者の立場に立つことができます。
- 「精神科医は、人の健康を総合的に捉えます。身体的な健康、ライフスタイル、個人的な状況、そして精神的な健康に影響を与えうるより広い社会的な問題を考慮することができます。
この記事を読んだ精神科医が安堵したのは間違いない。結局、AIが彼らの仕事を奪うことはなさそうだ。
誰が、あるいは何が補完するのだろうか?
それにしても、不思議でならない。AIを脇役として語ることは、リタリンやソラジン、昔の精神安定剤といった薬が1950年代から1960年代にかけて宣伝された方法を思い出させた。
それらは精神分析や心理療法の代用品としてではなく、ChatGPTが主張するような、ケアの効率を高め、オープンなコミュニケーションを促し、患者が助けを求めることへの抵抗を克服するのに役立つという利点を補完するものとして宣伝されたのである。
私たちはその後どうなったかを知っています。今、どちらかといえば、セラピーは薬物療法を補完するものです。
また、ここ数十年で精神医学に何が起こったかもある程度わかっている。口頭療法はほとんど姿を消し、診察時間は短縮され、治療の多くは薬物療法に移行した。
ニューイングランド・ジャーナル・オブ・メディシン誌に2人の精神科医が寄稿しているように、「チェックリスト式の症状の統合が反射的診断の代わりとなり、試行錯誤的な “薬物管理 “が驚くほど実践を支配している。
患者とのインタビューや、研修や実践の現場で起こっていることを読むと、ChatGPTが言う精神科医が患者に提供するもの、つまり健康に対する全体的な見方、深い個人的共感、経験や社会的背景、感情の複雑さに対する微妙な理解といったものの多くは、むしろ時代錯誤に聞こえます。実際の診療は、旧来型の治療同盟というよりも、診断と薬とのマッチングを中心とした機械のようです。
メンタルヘルスケアの未来
コスト、高い生産性、そして2人の精神科医の言葉をもう一度引用すると、「精神疾患とその治療について、誤って単純化され決定論的な定式化から利益を得ようとする…企業や行政の利害関係者の努力」といった制度的圧力が加わると、人間的要素の優先順位はさらに疑わしくなる。
精神科医が補完的な存在に終わるかもしれないが、それはChatGPTが純粋に関係性のあるケアを提供できるからではない。そのようなことはできない。ChatGPTの言葉を引用して、「個人的な感情や経験を持っていない」ことを認識した上で、「共感と思いやりを模倣する」ためにインターネット上で訓練されたベストを尽くすと述べている。
これは考えさせられる。最初から最後まで作為的なのだ。
AIの特別な力というよりも、精神科医が職を失うかもしれない理由は、彼らの診療において人間的であることの多くが、すでにほとんど疎外されているからである。もし精神科医が機械と競争して機械的なことをするようになれば、精神科医は機械に奉仕することになり、その逆にはならないだろう。
おそらくチャットボットは警鐘となり、人間のケアとは何なのか、その作為的で表面的なものによって私たちに警鐘を鳴らすことができるでしょう。そして、何が常にゴールであるべきかについて。コンテンツは「The Decoder」より。