La plupart disent non, mais il y a des raisons de se demander si cela va changer, estime le professeur de sociologie Joseph E. Davis. Dans cet article, il analyse le potentiel et les limites des chatbots et la mesure dans laquelle ils peuvent assumer les tâches des psychiatres.
« En tant qu’IA, je peux aider de bien des façons, mais je dois préciser que je ne peux pas remplacer complètement un psychiatre humain. » Cette déclaration, faite par le populaire chatbot à IA, ChatGPT, figure dans un récent article du magazine spécialisé Psychiatric Times. L’auteur, le Dr Pratt, a demandé à ChatGPT comment il pouvait remplacer un psychiatre. Il répond que ce n’est pas encore possible, du moins pas complètement.
La question même du remplacement d’un psychiatre par un logiciel peut sembler un peu étrange. Cependant, comme je suis en train de le découvrir, parler à une machine de ses problèmes de santé mentale est très courant et le devient de plus en plus.
En 2017, selon un article paru dans le JAMA, des millions de patients aux États-Unis et dans le monde entier discutaient déjà de leurs problèmes de santé mentale avec des logiciels tels que « Gabby ».
Chatbots de santé mentale
Depuis lors, plusieurs chatbots populaires sur la santé mentale ont été lancés, notamment Woebot, Wysa et Youper. Wysa affirme avoir « mené plus d’un demi-milliard de conversations AI avec plus de cinq millions de personnes sur leur santé mentale dans 95 pays ». Youper affirme avoir « soutenu la santé mentale de plus de deux millions de personnes ».
Dans une enquête nationale menée aux États-Unis en 2021 à la demande de Woebot Health, 22 % des adultes ont déclaré avoir utilisé un chatbot sur la santé mentale. Soixante pour cent d’entre eux ont déclaré avoir commencé à les utiliser pendant la pandémie et 44 % ont dit avoir utilisé les chatbots exclusivement, sans avoir consulté un professionnel de la santé mentale. Par ailleurs, 47 % des personnes interrogées ont déclaré qu’elles seraient intéressées par l’utilisation d’un chatbot thérapeutique si elles estimaient avoir besoin d’aide.
ChatGPT n’a pas été conçu comme un outil de santé mentale, mais il est en train d’être adapté pour fonctionner comme tel. Des messages publiés sur des sites de médias sociaux tels que Reddit indiquent désormais aux utilisateurs comment stimuler le chatbot à l’aide de scénarios hypothétiques.
Pour « l’entraîner à devenir un thérapeute », selon un site appelé ChatGPT Blog, vous lui donnez d’abord des instructions sur le rôle qu’il doit jouer : « Vous êtes le Dr Tessa, une thérapeute compatissante et amicale… Montrez un intérêt sincère… Posez des questions réfléchies pour stimuler l’autoréflexion ». L’utilisateur commence alors à faire part de ses préoccupations.
Ce qu’un chatbot peut et ne peut pas faire
Les discussions dans les médias populaires et dans la littérature académique identifient différentes façons dont les chatbots peuvent être utiles dans les soins de santé mentale. Cependant, le consensus est que si ces outils peuvent agir en complément, ils ne remplacent pas les professionnels. Interrogé par le Dr Pratt, ChatGPT a répondu par l’affirmative (il a été formé sur la base de ces mêmes types de sources).
Le ChatGPT a indiqué qu’il pouvait contribuer à tous les aspects du traitement qui impliquent des tâches administratives ou la collecte de données. Il peut par exemple fournir des informations sur les troubles et les thérapies, administrer des questionnaires de dépistage, contrôler l’observance et analyser les tendances en matière d’efficacité du traitement ou de symptômes. En d’autres termes, il s’agit de choses dont la structure et les régularités peuvent être identifiées et prédites. C’est ce que nous appellerons l’élément machine.
Cependant, ce qu’il ne pouvait pas – ou ne pouvait pas à l’époque – reproduire, c’était « l’élément humain » des soins. Contrairement à ses limites, ChatGPT a rapporté :
- Le travail des psychiatres implique une « connexion humaine » et une « compréhension des nuances des expériences individuelles et des contextes culturels ».
- Les psychiatres « combinent les aspects médicaux, psychologiques et sociaux de la santé mentale pour diagnostiquer et traiter leurs patients »
- « Les psychiatres peuvent se mettre à la place de leurs patients d’une manière profondément personnelle, en comprenant des émotions et des expériences complexes
- « Les psychiatres ont une vision holistique de la santé d’une personne. Ils peuvent prendre en compte la santé physique, le mode de vie, les circonstances personnelles et les questions sociétales plus larges qui peuvent avoir un impact sur la santé mentale »
Il ne fait aucun doute que les psychiatres qui ont lu l’article ont été soulagés. Il semble que l’IA ne soit pas sur le point de prendre leur travail après tout.
Qui ou quoi sera le complément ?
Mais je ne peux m'empêcher de m’interroger. Parler de l’IA comme d’un complément m’a rappelé la manière dont des médicaments comme la Ritaline, la Thorazine et les vieux tranquillisants étaient annoncés dans les années 1950 et 1960.
Ils n’étaient pas présentés comme des substituts à la psychanalyse et à la psychothérapie, mais comme des compléments présentant des avantages similaires à ceux que le ChatGPT revendique pour lui-même : accroître l’efficacité des soins, encourager une communication ouverte et aider à surmonter la résistance du patient à demander de l’aide.
Nous savons ce qui s’est passé par la suite. Aujourd’hui, la thérapie est en quelque sorte un complément à la médication.
Nous avons également une idée de ce qu’est devenue la psychiatrie au cours des dernières décennies. La thérapie verbale a pratiquement disparu, les rendez-vous ont été raccourcis et une grande partie du traitement s’est réduite à la prescription de médicaments.
Comme le notent deux psychiatres dans le New England Journal of Medicine, « les amalgames de symptômes de type liste de contrôle ont pris la place du diagnostic réfléchi, et la « gestion des médicaments » par essais et erreurs a pris le pas sur la pratique à un degré alarmant… le domaine semble avoir largement abandonné ses fondements sociaux, interpersonnels et psychodynamiques, sans que ces sacrifices ne soient vraiment récompensés »
D’après mes entretiens avec des patients et mes lectures sur la formation et la pratique, une grande partie de ce que ChatGPT affirme que les psychiatres offrent à leurs patients – une vision holistique de la santé, une profonde empathie personnelle et une compréhension subtile de l’expérience, du contexte social et de la complexité émotionnelle – semble plutôt anachronique. La pratique actuelle ressemble davantage à celle d’une machine, centrée sur l’association d’un diagnostic et d’un médicament, qu’à une alliance thérapeutique à l’ancienne.
L’avenir des soins de santé mentale
Si l’on ajoute les pressions institutionnelles telles que le coût, la productivité élevée et les efforts, pour citer à nouveau les deux psychiatres, « des intérêts corporatifs et administratifs… pour bénéficier d’une formulation faussement simplifiée et déterministe de la maladie mentale et de son traitement », la priorité de l’élément humain semble encore plus douteuse.
Les psychiatres peuvent finir par être les compléments, mais pas parce que ChatGPT peut offrir des soins véritablement relationnels. Il n’en est rien. Imaginez que vous parliez à quelqu’un qui commence par vous dire « Bienvenue, je vais m’occuper de vous aujourd’hui », puis qui, citant ChatGPT, reconnaît qu’il n’a pas « de sentiments ou d’expériences personnelles », mais qu’il fera de son mieux, après avoir été formé sur Internet, pour « imiter l'empathie et la compassion », ce qu’il « ne peut actuellement pas reproduire complètement ».
Cela devrait vous faire réfléchir. Il s’agit d’un artifice du début à la fin.
Plutôt qu’un pouvoir particulier de l’IA, la raison pour laquelle les psychiatres pourraient être déplacés est qu’une grande partie de ce qui est distinctement humain dans leur pratique a déjà été largement marginalisée. S’ils en sont réduits à rivaliser avec des machines pour faire des choses mécaniques, les psychiatres seront au service des machines, et non l’inverse.
Peut-être que les chatbots peuvent être un signal d’alarme, nous alertant par leur artifice et leur superficialité même sur ce que sont réellement les soins humains. Et sur ce qui devrait toujours être l’objectif. Avec le contenu de The Decoder.