Una madre luchó durante tres años para obtener un diagnóstico para el dolor crónico de su hijo. ChatGPT le proporcionó el diagnóstico correcto.
Según la madre, visitó a 17 especialistas a lo largo de tres años, todos en busca de una posible causa para las dolencias del niño en sus campos de especialización. Pero ningún médico pudo aliviar el dolor crónico de su hijo, declaró a Today.com la madre, que desea permanecer en el anonimato.
Entonces introdujo todos los síntomas de su hijo y los datos de la resonancia magnética en ChatGPT. El sistema de IA de OpenAI escupió un diagnóstico que los profesionales médicos no habían hecho antes: síndrome de la médula anclada.
Se trata de una afección infantil en la que la médula espinal se adhiere a sus vainas o al tejido circundante. El tirón resultante en las fibras nerviosas puede causar dolores de cabeza y otros síntomas. Un neurocirujano confirmó el diagnóstico y operó al niño, que sigue recuperándose.
En una historia similar, GPT-4 diagnosticó una rara enfermedad canina basándose en los resultados de un análisis de sangre. Una clínica veterinaria fue incapaz de hacer un diagnóstico, pero un segundo diagnóstico de otra clínica confirmó el diagnóstico de GPT-4.
Los chatbots de IA ayudan en el diagnóstico
Estas anécdotas ilustran el potencial de los grandes modelos lingüísticos para responder a preguntas médicas especializadas, que ya se ha demostrado en estudios. GPT-4 está a la vanguardia de este campo. Con Med-PaLM, Google pretende comercializar el campo de los modelos lingüísticos especializados para medicina.
En comparación con las búsquedas tradicionales en Internet, los LLM tienen una experiencia potencialmente más amplia que puede aprovecharse de forma muy focalizada. La investigación es más rápida. Sin embargo, existe el riesgo de alucinaciones, es decir, de respuestas erróneas, que pueden tener consecuencias especialmente graves en el contexto sanitario.
Pero, como demuestran los dos ejemplos anteriores, la gente comete errores. El debate sobre el uso de chatbots médicos puede ser similar al de los coches autónomos: ¿basta con que los sistemas funcionen de forma fiable o ligeramente por encima de los niveles humanos, o es necesario que sean impecables? ¿Quién será responsable en caso de error?
Um comentário
Debemos tener cuidado con las respuestas que da ChaGPT. En este caso, una vez que ChatGPT responde
«…bla bla bla, síndrome de la médula anclada» y nosotros le decimos «acaso no es síndrome de la espalda inclinada (SEI)?», ChatGPT en un 99% responderá «Lo siento, tienes razón, es síndrome de la espalda inclinada bla bla bla»
Saludos.