La mayoría dice que no, pero hay razones para preguntarse si esto cambiará, opina el profesor de sociología Joseph E. Davis. En este artículo, analiza el potencial y las limitaciones de los chatbots y hasta qué punto pueden asumir las tareas de los psiquiatras.

«Como IA, puedo ayudar de muchas maneras, pero debo dejar claro que no puedo sustituir totalmente a un psiquiatra humano» Esta afirmación, del popular chatbot impulsado por IA, ChatGPT, aparece en un reciente artículo de la revista especializada Psychiatric Times. El autor, el Dr. Pratt, había preguntado a ChatGPT cómo podría sustituir a un psiquiatra. Él responde que todavía no puede, al menos no del todo.

La mera pregunta sobre la sustitución de un psiquiatra por un programa informático puede parecer un poco extraña. Sin embargo, como estoy descubriendo, hablar con una máquina sobre problemas de salud mental es muy común y cada vez lo es más.

En 2017, según un artículo publicado en JAMA, millones de pacientes en Estados Unidos y en todo el mundo ya hablaban de sus problemas de salud mental con programas informáticos como «Gabby».

Chatbots de salud mental

Desde entonces, se han lanzado varios chatbots de salud mental populares, como Woebot, Wysa y Youper. Wysa afirma haber «mantenido más de 500 millones de conversaciones de chat con inteligencia artificial con más de cinco millones de personas sobre su salud mental en 95 países». Youper afirma haber «apoyado la salud mental de más de dos millones de personas».

En una encuesta nacional estadounidense de 2021 encargada por Woebot Health, el 22% de los adultos declaró haber utilizado un chatbot de salud mental. El 60% afirmó haber empezado a utilizarlos durante la pandemia y el 44% dijo haber usado chatbots exclusivamente, sin consultar también a un profesional de la salud mental. Otro 47% afirmó que estaría interesado en utilizar un chatbot terapéutico si sintiera que necesita ayuda.

ChatGPT no se diseñó como herramienta de salud mental, pero se está adaptando para que funcione como tal. Las publicaciones en redes sociales como Reddit guían ahora a los usuarios sobre cómo estimular al chatbot con escenarios hipotéticos.

Para «entrenarlo para que se convierta en terapeuta», según un sitio llamado ChatGPT Blog, primero se le dan instrucciones sobre el papel que debe asumir: «Eres la Dra. Tessa, una terapeuta compasiva y amable… Muestra un interés genuino… Haz preguntas reflexivas para estimular la autorreflexión». El usuario comienza entonces a compartir sus preocupaciones.

Qué puede y qué no puede hacer un chatbot

Tanto en los medios de comunicación populares como en la literatura académica se identifican varias formas posibles en las que los chatbots pueden ser útiles en la atención a la salud mental. Sin embargo, el consenso es que, si bien estas herramientas pueden actuar como complemento, no sustituyen a los profesionales. A preguntas del Dr. Pratt, ChatGPT se mostró de acuerdo (se formó basándose en este mismo tipo de fuentes).

Lo que ChatGPT informó que podía hacer era ayudar en cualquier aspecto del tratamiento que implicara tareas administrativas o recopilación de datos. Podía hacer cosas como proporcionar información sobre trastornos y terapias, administrar cuestionarios de detección, controlar el cumplimiento y analizar patrones en la eficacia del tratamiento o los síntomas. Cosas que, en otras palabras, tienen estructura y regularidades que pueden identificarse y predecirse. Llamemos a esto el elemento máquina.

Sin embargo, lo que no podía -o no podía en aquel momento- reproducir era el «elemento humano» de la atención. En contraste con sus limitaciones, ChatGPT informó:

  • El trabajo de los psiquiatras implica «conexión humana» y «comprensión de los matices de las experiencias individuales y los contextos culturales».
  • Los psiquiatras «combinan los aspectos médicos, psicológicos y sociales de la salud mental para diagnosticar y tratar a sus pacientes»
  • «Los psiquiatras pueden ponerse en el lugar de sus pacientes de una forma profundamente personal, comprendiendo emociones y experiencias complejas»
  • «Los psiquiatras adoptan una visión holística de la salud de una persona. Pueden tener en cuenta la salud física, el estilo de vida, las circunstancias personales y los problemas sociales más amplios que pueden afectar a la salud mental»

Sin duda, los psiquiatras que leyeron el artículo encontraron alivio. Parece que, después de todo, la IA no va a quitarles el trabajo.

¿Quién o qué será el complemento?

Pero aun así, no puedo evitar preguntarme. Hablar de la IA en un papel secundario me recordó la forma en que se anunciaban fármacos como Ritalin, Thorazine y los antiguos tranquilizantes en los años cincuenta y sesenta.

Se promocionaban no como sustitutos del psicoanálisis y la psicoterapia, sino como un complemento con beneficios similares a los que el ChatGPT reclama para sí mismo: aumentar la eficacia de la atención, fomentar la comunicación abierta y ayudar a superar la resistencia del paciente a buscar ayuda.

Sabemos lo que pasó después. Ahora, en todo caso, la terapia es un complemento de la medicación.

También tenemos una idea de lo que ha ocurrido con la psiquiatría en las últimas décadas. La terapia verbal prácticamente ha desaparecido, las citas se han acortado y gran parte del tratamiento se ha reducido a la prescripción de medicamentos.

Como señalan dos psiquiatras en el New England Journal of Medicine, «las amalgamas de síntomas al estilo de las listas de comprobación han sustituido al diagnóstico reflexivo, y la ‘gestión de la medicación' por ensayo y error se ha apoderado de la práctica en un grado alarmante… el campo parece haber abandonado en gran medida sus fundamentos sociales, interpersonales y psicodinámicos, con poco que mostrar a cambio de estos sacrificios.»

Basándome en mis entrevistas con pacientes y en la lectura sobre lo que ocurre en la formación y la práctica, mucho de lo que ChatGPT dice que los psiquiatras ofrecen a sus pacientes -una visión holística de la salud, una profunda empatía personal y una sutil comprensión de la experiencia, el contexto social y la complejidad emocional- suena bastante anacrónico. La práctica real se parece más a la de una máquina, centrada en hacer coincidir un diagnóstico con un fármaco, que a una alianza terapéutica al viejo estilo.

El futuro de la atención a la salud mental

Si añadimos presiones institucionales como el coste, la alta productividad y el esfuerzo, por citar de nuevo a los dos psiquiatras, «de intereses corporativos y administrativos… para beneficiarse de una formulación falsamente simplificada y determinista de la enfermedad mental y su tratamiento», la prioridad del elemento humano parece aún más dudosa.

Los psiquiatras pueden acabar siendo los complementos, aunque no porque ChatGPT pueda ofrecer una atención auténticamente relacional. No puede hacer nada de eso. Imagínate hablar con alguien que empieza diciendo: «Bienvenido, hoy voy a cuidar de ti», y luego sigue, citando a ChatGPT, reconociendo que «no tienen sentimientos ni experiencias personales», pero que harán todo lo posible, entrenados en Internet, para «imitar la empatía y la compasión», que «actualmente no pueden replicar completamente».

Esto da que pensar. Es un artificio de principio a fin.

Más que un poder especial de la IA, la razón por la que los psiquiatras pueden verse desplazados es que gran parte de lo que es claramente humano en su práctica ya ha sido marginado en gran medida. Si se ven reducidos a competir con las máquinas para hacer cosas de máquinas, los psiquiatras estarán al servicio de las máquinas, y no al revés.

Quizás los chatbots puedan ser una llamada de atención, alertándonos por su propio artificio y superficialidad sobre lo que es realmente la atención humana. Y sobre cuál debería ser siempre el objetivo. Con contenido de The Decoder.