Uma mãe lutou por três anos para conseguir um diagnóstico para a dor crônica do filho. O ChatGPT então teria fornecido o diagnóstico correto.

Segundo a mãe, ela visitou 17 especialistas ao longo de três anos, todos em busca de uma possível causa para as doenças do menino em suas áreas de atuação. Mas nenhum médico ou médica poderia aliviar a dor crônica de seu filho, disse a mãe, que deseja permanecer anônima, à Today.com.

Ela então inseriu todos os sintomas de seu filho e dados de ressonância magnética no ChatGPT. O sistema de IA da OpenAI cuspiu um diagnóstico que os profissionais médicos não haviam feito anteriormente: síndrome do cordão amarrado.

Esta é uma condição infantil em que a medula espinhal fica presa às suas bainhas ou tecido circundante. A tração resultante nas fibras nervosas pode causar dores de cabeça e outros sintomas. Um neurocirurgião confirmou o diagnóstico e realizou uma cirurgia no menino, que ainda está se recuperando.

Em uma história semelhante, o GPT-4 diagnosticou uma doença canina rara com base em resultados de exames de sangue. Uma clínica veterinária não conseguiu fazer um diagnóstico, mas um segundo diagnóstico de outra clínica confirmou o diagnóstico de GPT-4.

Chatbots de IA ajudam no diagnóstico

Tais anedotas ilustram o potencial de grandes modelos de linguagem para responder a perguntas médicas de nível especializado, o que já foi demonstrado em estudos. O GPT-4 está na vanguarda deste campo. Com o Med-PaLM, o Google pretende comercializar o campo de modelos de linguagem especializados para a medicina.

Em comparação com as pesquisas tradicionais na Internet, os LLMs têm uma experiência potencialmente mais ampla que pode ser aproveitada de forma altamente focada. A pesquisa é mais rápida. No entanto, existe o risco de alucinações, ou seja, respostas erradas, que podem ter consequências particularmente graves no contexto da saúde.

Mas, como os dois exemplos acima mostram, as pessoas cometem erros. A discussão sobre o uso de chatbots médicos pode ser semelhante à dos carros autônomos: basta que os sistemas tenham um desempenho confiável ou um pouco acima dos níveis humanos, ou eles precisam ser impecáveis? Quem será responsabilizado se ocorrer um erro?