母親は3年間もの間、息子の慢性的な痛みの診断を求めて闘っていました。そして、ChatGPTは正しい診断を提供したと言われています。
この母親によれば、彼女は3年間にわたり、息子の病気の原因を見つけようとして、各専門家17人を訪れました。しかし、どの医師も彼女の息子の慢性的な痛みを軽減できなかったと、匿名を希望する母親はToday.comに語っています。
そこで、彼女は息子の症状とMRIデータをChatGPTに入力しました。OpenAIのAIシステムは、これまで医療専門家が行ってこなかった診断を提供しました:脊髄索縛症候群。
これは、脊髄がその鞘や周囲の組織に引っかかる幼児の状態です。神経繊維にかかる牽引力が頭痛やその他の症状を引き起こす可能性があります。神経外科医は診断を確認し、その後、手術を行いました。息子は現在も回復中です。
似たような話では、GPT-4が血液検査の結果をもとに珍しい犬の病気を診断しました。獣医クリニックは診断できませんでしたが、別のクリニックでの2番目の診断がGPT-4の診断を確認しました。
AIチャットボットは診断をサポート
これらの逸話は、大規模な言語モデルが専門家レベルの医療質問に答える可能性を示しており、それはすでに研究で実証されています。GPT-4はこの分野の最先端に位置しています。GoogleはMed-PaLMを通じて医学のための専門的な言語モデルの分野を商業化しようとしています。
インターネットでの伝統的な検索と比較して、LLM(大規模言語モデル)は高度に焦点を絞った方法で広範な経験を持っています。検索はより迅速です。ただし、健康に関する文脈では、誤った回答、つまり幻覚が発生するリスクもあります。しかし、上記の2つの例が示すように、人間も誤りを cometerことがあります。医療用チャットボットの使用に関する議論は、自動車の自動運転と類似しているかもしれません:システムが信頼性のあるパフォーマンスを発揮するか、または人間を少しでも上回るか、それとも完璧でなければならないか?誤りが発生した場合、誰が責任を負うのでしょうか?