スタンフォード大学の研究で、ChatGPTが複雑な臨床症例に基づく質問で医学生を上回ることが示され、医学教育の見直しが促されている。
スタンフォード大学の研究者らは、ChatGPTが複雑な臨床ケアの質問に答える際に、医学部の1年生と2年生を上回ることができることを発見した。
JAMA Internal Medicine誌に掲載されたこの研究は、AIが医学教育や診療に与える影響が大きくなっていることを浮き彫りにし、将来の医師には教育方法の調整が必要であることを示唆している。
医学部の教育マネージャーである共著者のアリシア・ディジャマリーノ氏は、「私たちは、学校でAIに頼りすぎて、自分で症例を推論できないような医師にはなって欲しくありません」と言う。「しかし、医師がAIを効果的に使う訓練を受けておらず、現代の診療で広くAIに遭遇する世界の方がもっと怖いのです」。
AIは医学生を凌駕する
最近の研究では、ChatGPTが米国医師免許試験(USMLE)の多肢選択式問題に対応できることが実証されている。しかし、スタンフォード大学の著者らは、臨床推論能力を評価するために使用される、より難しく、自由形式の問題を扱うAIシステムの能力を調べたいと考えた。
その結果、AIモデルは、試験の症例報告の部分で、医学生よりも平均して4点以上高い得点を獲得した。この結果は、ChatGPTのようなAIツールが、従来の文章による医学的推論の教育や評価を破壊する可能性を示唆している。また、研究者らは、「合格ラインぎりぎり」だったGPT-3.5からの大幅なジャンプにも注目している。
ChatGPTや他の同様のプログラムは、私たちの医学教育、ひいては医学の実践方法を変えようとしている。
アリシア・ディジャマリーノ
その素晴らしいパフォーマンスにもかかわらず、ChatGPTに欠点がないわけではない。最大の危険は、幻覚や混同としても知られる、でっち上げの事実を作り出すことです。これはOpenAIの最新モデルであるGPT-4ではかなり軽減されており、有料顧客やAPI経由で利用可能だが、まだ存在する。
医療に関しては、非常に散発的なエラーでさえ、劇的な結果をもたらす可能性があることは想像できる。しかし、複数の権威ある情報源を持つグローバルなカリキュラムに組み込まれれば、この問題はずっと小さくなるようだ。
スタンフォード医科大学、試験中の学生のChatGPTへのアクセスを削減
スタンフォード医科大学では、試験の完全性やカリキュラム設計へのChatGPTの影響に関する懸念がすでに生じている。管理者は、学生がAIに頼ることなく臨床推論のスキルを確実に身につけられるよう、公開試験から非公開試験に移行した。しかし、医学教育へのAIツールの統合を模索するため、AIワーキンググループも設立している。
教育以外にも、AIが医療に大きな影響を与える分野はある。例えば、医療AIの新興企業であるInsilico Medicineは最近、第II相臨床試験でAIが生成した薬剤を患者に初めて投与した。
グーグルは、同社の大規模言語モデルPaLM 2を医学的な質問に答えるように調整したMed-PaLM 2の実地試験を行っている。別の研究では、GPT-4は、医師が患者の質問に、より詳細かつ共感的に答えるのに役立つことが示唆されている。そう、正しく読んでほしい。The Decoderからの情報です。