Google está realizando pruebas de campo con el Med-PaLM 2, la versión médica de su modelo de lenguaje PaLM, con clientes iniciales en un entorno clínico.
El Med-PaLM 2 ha sido entrenado con preguntas y respuestas de exámenes de licencia médica para mejorar su capacidad de responder preguntas médicas. El modelo puede resumir documentos médicos, organizar datos de salud y generar respuestas para preguntas médicas.
Según el Wall Street Journal, las pruebas iniciales del Med-PaLM 2 se están llevando a cabo en instituciones de salud en Estados Unidos, incluyendo la Mayo Clinic. Google cree que su modelo puede ser especialmente útil en países con «acceso limitado a médicos».
Los datos de los clientes enviados durante las pruebas del Med-PaLM 2 estarán encriptados, inaccesibles para Google y controlados por los propios clientes, informa el WSJ.
El Med-PaLM 2 puede proporcionar información médica de nivel especializado, pero aún puede cometer errores
Google anunció las primeras pruebas clínicas del Med-PaLM 2 en abril de este año. Según Google, el Med-PaLM 2 tiene un rendimiento un 18% mejor que su predecesor y supera significativamente a modelos similares para tareas médicas.
Google afirma que el Med-PaLM 2 es el primer modelo de lenguaje en alcanzar una precisión de más del 85% en preguntas similares al United States Medical Licensing Examination (USMLE). El modelo obtuvo una puntuación «satisfactoria» del 72,3% en el conjunto de datos MedMCQA, que incluye preguntas de los exámenes de ingreso AIIMS y NEET de India.
Greg Corrado, investigador de Google que ayudó a desarrollar el Med-PaLM 2, describe el modelo como una tecnología que aún no usaría para el cuidado de la salud de su familia. Sin embargo, afirma que amplía las posibilidades de la IA en la medicina diez veces.
A medida que la IA ingresa al sector de la salud, surgen preocupaciones sobre la manipulación de datos sensibles de los pacientes. También se están discutiendo los posibles riesgos de los consejos médicos generados por IA. Google lanzó el primer Med-PaLM a finales de 2022.
Un estudio publicado a fines de abril de 2023 mostró que incluso una versión no ajustada para fines médicos del ChatGPT basado en el GPT 3.5 puede obtener calificaciones más altas de calidad y empatía en respuestas médicas que las respuestas de los médicos cuando son evaluadas por humanos.
Con contenido de The Decoder.