Un estudio de la Universidad de Stanford demuestra que ChatGPT supera a los estudiantes de medicina en preguntas clínicas complejas basadas en casos, lo que impulsa una revisión de la enseñanza de la medicina.
Los investigadores de Stanford han descubierto que ChatGPT puede superar a los estudiantes de medicina de primer y segundo año cuando responden a preguntas complejas sobre atención clínica.
El estudio, publicado en JAMA Internal Medicine, pone de relieve la creciente influencia de la IA en la enseñanza y la práctica de la medicina, y sugiere que puede ser necesario ajustar los métodos de enseñanza para los médicos del futuro.
«No queremos médicos tan dependientes de la IA en la escuela que no puedan razonar casos por sí mismos», dice la coautora Alicia DiGiammarino, gerente de educación de la Facultad de Medicina. «Pero me da más miedo un mundo en el que los médicos no estén formados para usar la IA de forma eficaz y se encuentren con ella de forma generalizada en la práctica moderna»
La IA supera a los estudiantes de medicina
Estudios recientes han demostrado la capacidad de ChatGPT para enfrentarse a las preguntas de opción múltiple del Examen de Licencia Médica de Estados Unidos (USMLE). Sin embargo, los autores de Stanford querían examinar la capacidad del sistema de IA para manejar preguntas más difíciles y abiertas utilizadas para evaluar las habilidades de razonamiento clínico.
El estudio reveló que, de media, el modelo de IA obtuvo más de cuatro puntos más que los estudiantes de medicina en la parte del examen dedicada a los informes de casos. Este resultado sugiere el potencial de herramientas de IA como ChatGPT para alterar la enseñanza y evaluación tradicionales del razonamiento médico a través del texto escrito. Los investigadores también observaron un salto significativo con respecto a GPT-3.5, que estaba «justo en la línea de aprobado» en las preguntas.
ChatGPT y otros programas similares están cambiando la forma en que enseñamos y, en última instancia, practicamos la medicina.
Alicia DiGiammarino
A pesar de su impresionante rendimiento, ChatGPT no está exento de defectos. El mayor peligro es la creación de hechos inventados, también conocidos como alucinaciones o confabulaciones. Esto se ha reducido considerablemente en el último modelo de OpenAI, GPT-4, que está disponible para los clientes de pago y a través de la API, pero sigue estando presente.
Uno puede imaginarse cómo incluso errores muy esporádicos pueden tener consecuencias dramáticas cuando se trata de asuntos médicos. Sin embargo, integrados en un plan de estudios global con múltiples fuentes autorizadas, este problema parece ser mucho menor.
La Facultad de Medicina de Stanford corta el acceso de los estudiantes a ChatGPT durante los exámenes
La preocupación por la integridad de los exámenes y la influencia de ChatGPT en el diseño del plan de estudios ya se deja sentir en la Facultad de Medicina de Stanford. Los administradores han pasado de los exámenes abiertos a los cerrados para garantizar que los estudiantes desarrollen habilidades de razonamiento clínico sin depender de la IA. Sin embargo, también han creado un grupo de trabajo sobre IA para explorar la integración de herramientas de IA en la educación médica.
Más allá de la educación, hay otras áreas en las que la IA puede tener un impacto significativo en la asistencia sanitaria. Por ejemplo, la startup de IA médica Insilico Medicine administró recientemente la primera dosis de un fármaco generado por IA generativa a pacientes en un ensayo clínico de fase II.
Google está realizando pruebas de campo con Med-PaLM 2, una versión de su gran modelo lingüístico PaLM 2 ajustada para responder a preguntas médicas. Otro estudio sugiere que GPT-4 puede ayudar a los médicos a responder a las preguntas de los pacientes con más detalle y empatía. Sí, has leído bien: más empatía. Con información de The Decoder.