O Google está realizando testes de campo com o Med-PaLM 2, a versão médica de seu modelo de linguagem PaLM, com clientes iniciais em um ambiente clínico.

O Med-PaLM 2 foi treinado com perguntas e respostas de exames de licenciamento médico para aprimorar sua capacidade de responder a perguntas médicas. O modelo pode resumir documentos médicos, organizar dados de saúde e gerar respostas para perguntas médicas.

De acordo com o Wall Street Journal, os testes iniciais do Med-PaLM 2 estão ocorrendo em instituições de saúde nos Estados Unidos, incluindo a Mayo Clinic. O Google acredita que seu modelo pode ser especialmente útil em países com “acesso limitado a médicos”.

Os dados do cliente enviados durante o teste do Med-PaLM 2 serão criptografados, inacessíveis ao Google e controlados pelos próprios clientes, informa o WSJ.

O Med-PaLM 2 pode fornecer informações médicas de nível especializado, mas ainda cometerá erros

O Google anunciou os primeiros testes clínicos do Med-PaLM 2 em abril deste ano. Segundo o Google, o Med-PaLM 2 apresenta um desempenho 18% melhor do que seu antecessor e supera significativamente modelos similares para tarefas médicas.

O Google afirma que o Med-PaLM 2 é o primeiro modelo de linguagem a atingir uma precisão de mais de 85% em perguntas semelhantes às do Exame de Licenciamento Médico dos Estados Unidos (USMLE). O modelo obteve uma pontuação “satisfatória” de 72,3% no conjunto de dados MedMCQA, que inclui perguntas dos exames de entrada médica AIIMS e NEET da Índia.

Greg Corrado, pesquisador do Google que ajudou a desenvolver o Med-PaLM 2, descreve o modelo como uma tecnologia que ele ainda não usaria para o cuidado de saúde de sua família. No entanto, ele afirma que ele expande as possibilidades da IA na medicina em dez vezes.

À medida que a IA entra no setor de saúde, preocupações surgem sobre a manipulação de dados sensíveis de pacientes. Os riscos potenciais de conselhos médicos gerados por IA também estão sendo discutidos. O Google lançou o primeiro Med-PaLM no final de 2022.

Um estudo publicado no final de abril de 2023 mostrou que até mesmo uma versão não ajustada para fins médicos do ChatGPT baseado no GPT 3.5 pode obter classificações mais altas de qualidade e empatia em respostas médicas do que as respostas de médicos quando avaliadas por humanos. Com conteúdo do The Decoder.