Diagnostic Reasoning Prompts Reveal the Potential for Large Language Model Interpretability in Medicine

要約

医療における大規模言語モデル (LLM) の使用に対する大きな障壁の 1 つは、LLM が臨床医の認知プロセスとは本質的に異なる臨床上の意思決定を行うために解釈できない方法を使用しているという認識です。
この原稿では、LLM が臨床推論を実行して正確に診断を形成できるかどうかを研究するための新しい診断推論プロンプトを開発します。
われわれは、診断精度を犠牲にすることなく、GPT4 が臨床医の一般的な臨床推論プロセスを模倣できることを発見しました。
臨床推論を使用して解釈可能な理論的根拠を提供できる LLM は、患者ケアにおいて LLM が信頼できるかどうかを評価する手段を医師に提供するため、これは重要です。
新しいプロンプト方法は、LLM のブラックボックスを明らかにし、医療における安全で効果的な使用に一歩近づく可能性を秘めています。

要約(オリジナル)

One of the major barriers to using large language models (LLMs) in medicine is the perception they use uninterpretable methods to make clinical decisions that are inherently different from the cognitive processes of clinicians. In this manuscript we develop novel diagnostic reasoning prompts to study whether LLMs can perform clinical reasoning to accurately form a diagnosis. We find that GPT4 can be prompted to mimic the common clinical reasoning processes of clinicians without sacrificing diagnostic accuracy. This is significant because an LLM that can use clinical reasoning to provide an interpretable rationale offers physicians a means to evaluate whether LLMs can be trusted for patient care. Novel prompting methods have the potential to expose the black box of LLMs, bringing them one step closer to safe and effective use in medicine.

arxiv情報

著者 Thomas Savage,Ashwin Nayak,Robert Gallo,Ekanath Rangan,Jonathan H Chen
発行日 2023-08-13 19:04:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC パーマリンク