A maioria diz que não, mas há motivos para se perguntar se isso mudará, acredita o professor de sociologia Joseph E. Davis. Neste artigo, ele analisa o potencial e as limitações dos chatbots e em que medida eles podem assumir tarefas de psiquiatras.

“Como uma IA, posso ajudar em várias maneiras, mas devo esclarecer que não posso substituir totalmente um psiquiatra humano.” Essa declaração, do popular chatbot alimentado por IA, ChatGPT, aparece em um artigo recente na revista especializada Psychiatric Times. O autor, Dr. Pratt, havia perguntado ao ChatGPT como ele poderia substituir um psiquiatra. Ele responde que ainda não pode, pelo menos não completamente.

A própria pergunta sobre substituir um psiquiatra por software pode parecer um pouco estranha. No entanto, como estou descobrindo, falar com uma máquina sobre problemas de saúde mental é muito comum e está se tornando ainda mais comum.

Em 2017, segundo um artigo no JAMA, milhões de pacientes nos EUA e em todo o mundo já estavam discutindo seus desafios de saúde mental com programas de software como o “Gabby”.

Chatbots de Saúde Mental

Desde então, vários chatbots populares de saúde mental foram lançados, incluindo Woebot, Wysa e Youper. Wysa afirma ter “realizado mais de meio bilhão de conversas de chat com IA com mais de cinco milhões de pessoas sobre sua saúde mental em 95 países”. Youper afirma ter “apoiado a saúde mental de mais de dois milhões de pessoas”.

Em uma pesquisa nacional dos EUA de 2021 encomendada pela Woebot Health, 22% dos adultos relataram ter usado um chatbot de saúde mental. Sessenta por cento disseram que começaram a usar durante a pandemia e 44% disseram que usaram exclusivamente chatbots, sem consultar também um profissional de saúde mental. Outros 47% disseram que estariam interessados ​​em usar um chatbot terapêutico se sentissem que precisavam de ajuda.

O ChatGPT não foi projetado como uma ferramenta de saúde mental, mas está sendo adaptado para funcionar como tal. Postagens em sites de mídia social, como o Reddit, agora orientam as pessoas sobre como estimular o chatbot com cenários hipotéticos.

Para “treiná-lo para se tornar um terapeuta”, de acordo com um site chamado Blog do ChatGPT, primeiro você dá a ele instruções sobre o papel que ele deve assumir: “Você é a Dra. Tessa, uma terapeuta compassiva e amigável … Demonstre interesse genuíno … Faça perguntas pensativas para estimular a autorreflexão”. Em seguida, o usuário começa a compartilhar suas preocupações.

O que um Chatbot Pode e Não Pode Fazer

Discussões tanto na mídia popular quanto na literatura acadêmica identificam várias maneiras possíveis pelas quais os chatbots podem ser úteis no cuidado da saúde mental. No entanto, o consenso é que, embora essas ferramentas possam atuar como um complemento, elas não substituem os profissionais. Quando questionado pelo Dr. Pratt, o ChatGPT concordou (ele foi treinado com base nesses mesmos tipos de fontes).

O que o ChatGPT relatou que poderia fazer era auxiliar em quaisquer aspectos do tratamento que envolvessem tarefas administrativas ou coleta de dados. Ele poderia fazer coisas como fornecer informações sobre transtornos e terapias, administrar questionários de triagem, monitorar a conformidade e analisar padrões na eficácia do tratamento ou sintomas. Coisas que, em outras palavras, têm estrutura e regularidades que podem ser identificadas e previstas. Chamemos isso de elemento máquina.

No entanto, o que ele não podia – ou não podia naquele momento – replicar era o “elemento humano” do cuidado. Em contraste com suas limitações, o ChatGPT relatou:

  • O trabalho dos psiquiatras envolve “conexão humana” e “compreensão das nuances das experiências individuais e contextos culturais”.
  • Os psiquiatras “combinam os aspectos médicos, psicológicos e sociais da saúde mental para diagnosticar e tratar seus pacientes.”
  • “Os psiquiatras podem se colocar no lugar dos pacientes de forma profundamente pessoal, compreendendo emoções e experiências complexas.”
  • “Os psiquiatras adotam uma visão holística da saúde da pessoa. Eles podem considerar a saúde física, o estilo de vida, as circunstâncias pessoais e questões mais amplas da sociedade, que podem impactar a saúde mental.”

Sem dúvida, os psiquiatras que leram o artigo encontraram alívio. Parece que a IA não está prestes a tomar seus empregos, afinal.

Quem ou o que será o complemento?

Mas ainda assim, não posso deixar de me perguntar. Falar sobre a IA em um papel de apoio me lembrou da maneira como medicamentos como Ritalina, Thorazine e os antigos tranquilizantes eram anunciados nas décadas de 1950 e 1960.

Eles foram promovidos não como substitutos da psicanálise e psicoterapia, mas como um complemento com benefícios semelhantes aos que o ChatGPT reivindica para si mesmo: aumentar a eficiência do cuidado, incentivar a comunicação aberta e ajudar a superar a resistência do paciente em buscar ajuda.

Sabemos o que aconteceu depois. Agora, se algo, a terapia é um complemento para os medicamentos.

Também temos alguma ideia do que aconteceu com a psiquiatria nas últimas décadas. A terapia verbal praticamente desapareceu, as consultas foram encurtadas e grande parte do tratamento foi reduzido à prescrição de medicamentos.

Como dois psiquiatras escrevendo no New England Journal of Medicine observam, “Amálgamas de sintomas no estilo de listas de verificação tomaram o lugar do diagnóstico reflexivo, e o ‘gerenciamento de medicação' de tentativa e erro assumiu a prática em grau alarmante… o campo parece ter abandonado em grande parte suas bases sociais, interpessoais e psicodinâmicas, com pouco a mostrar por esses sacrifícios.”

Com base em minhas entrevistas com pacientes e na leitura sobre o que acontece no treinamento e na prática, grande parte do que o ChatGPT diz que os psiquiatras oferecem a seus pacientes – uma visão holística da saúde, empatia pessoal profunda e uma compreensão sutil da experiência, contexto social e complexidade emocional – soa bastante anacrônico. A prática real parece mais parecida com a de uma máquina, centrada na correspondência do diagnóstico a um medicamento, do que com uma aliança terapêutica no estilo antigo.

O Futuro do Cuidado em Saúde Mental

Se adicionarmos pressões institucionais como custo, alta produtividade e o esforço, para citar novamente os dois psiquiatras, “dos interesses corporativos e administrativos… de se beneficiar de uma formulação de doença mental e seu tratamento falsamente simplificada e determinista”, a prioridade do elemento humano parece ainda mais duvidosa.

Os psiquiatras podem acabar sendo os complementos, embora não porque o ChatGPT possa oferecer cuidados genuinamente relacionais. Ele não pode fazer nada do tipo. Imagine falar com alguém que começa dizendo: “Bem-vindo, estarei cuidando de você hoje”, e depois continua, citando o ChatGPT, para reconhecer que ele não “tem sentimentos ou experiências pessoais”, mas fará o seu melhor, treinado na internet, para “imitar empatia e compaixão”, o que “atualmente não consegue replicar completamente”.

Isso deve te fazer refletir. É artifício do início ao fim.

Em vez de ser algum poder especial da IA, a razão pela qual os psiquiatras podem ser deslocados é que grande parte do que é distintamente humano em sua prática já foi em grande parte marginalizado. Se eles forem reduzidos a competir com máquinas para fazer coisas de máquinas, os psiquiatras estarão servindo às máquinas, e não o contrário.

Talvez os chatbots possam ser um alerta, nos alertando por seu próprio artifício e superficialidade, sobre o que é verdadeiramente o cuidado humano. E sobre o que sempre deve ser o objetivo. Com conteúdo do The Decoder.