Une mère s’est battue pendant trois ans pour obtenir un diagnostic de la douleur chronique de son fils. Le ChatGPT aurait alors fourni le bon diagnostic.

Selon la mère, elle a consulté 17 spécialistes en trois ans, tous à la recherche d’une éventuelle cause des maux de son fils dans leurs domaines respectifs. Mais aucun médecin n’a pu soulager la douleur chronique de son fils, a déclaré la mère, qui souhaite rester anonyme, à Today.com.

Elle a ensuite saisi tous les symptômes de son fils et les données de l’IRM dans le ChatGPT. Le système d’IA d’OpenAI a généré un diagnostic que les professionnels de la santé n’avaient pas fait auparavant : le syndrome de la moelle épinière attachée.

Il s’agit d’une condition infantile dans laquelle la moelle épinière est attachée à ses gaines ou à ses tissus environnants. La traction résultante sur les fibres nerveuses peut provoquer des maux de tête et d’autres symptômes. Un neurochirurgien a confirmé le diagnostic et a pratiqué une intervention chirurgicale sur le garçon, qui se remet toujours.

Dans une histoire similaire, le GPT-4 a diagnostiqué une maladie canine rare sur la base des résultats d’analyses de sang. Une clinique vétérinaire n’a pas pu poser un diagnostic, mais un deuxième diagnostic d’une autre clinique a confirmé le diagnostic du GPT-4.

Les chatbots d’IA aident au diagnostic

De telles anecdotes illustrent le potentiel des grands modèles de langage pour répondre à des questions médicales de niveau spécialisé, comme cela a déjà été démontré dans des études. Le GPT-4 est à la pointe de ce domaine. Avec le Med-PaLM, Google cherche à commercialiser des modèles de langage spécialisés en médecine.

Comparativement aux recherches traditionnelles sur Internet, les LLM ont une expérience potentiellement plus large qui peut être exploitée de manière très ciblée. La recherche est plus rapide. Cependant, il existe un risque d’erreurs, c’est-à-dire de réponses incorrectes, qui peuvent avoir des conséquences particulièrement graves dans le contexte de la santé.

Mais, comme le montrent les deux exemples ci-dessus, les gens font des erreurs. La discussion sur l’utilisation des chatbots médicaux peut être similaire à celle des voitures autonomes : les systèmes doivent-ils avoir des performances fiables ou légèrement supérieures à celles des humains, ou doivent-ils être impeccables ? Qui sera tenu pour responsable en cas d’erreur ?