Towards Reducing Diagnostic Errors with Interpretable Risk Prediction

要約

多くの診断エラーは、臨床医が患者の電子医療記録 (EHR) 内の関連情報に簡単にアクセスできないために発生します。
この研究では、LLM を使用して、特定の診断のリスクの増加または減少を示す患者 EHR データ内の証拠を特定する方法を提案します。
私たちの最終的な目標は、証拠へのアクセスを増やし、診断エラーを減らすことです。
特に、臨床医がまだ不確かな時点で個別のリスク推定値を伴う証拠に裏付けられた予測を行うための神経相加モデルを提案し、不完全な差分に起因する診断の遅れやエラーを具体的に軽減することを目的としています。
このようなモデルをトレーニングするには、最終的な「真の」診断の時間的にきめの細かい遡及的ラベルを推測する必要があります。
これを LLM を使用して行い、入力テキストが確実な診断が行われる前のものであることを確認します。
LLM を使用して証拠の初期プールを取得しますが、その後、モデルによって学習された相関関係に従ってこの証拠セットを改良します。
私たちは、臨床医が鑑別診断の事前定義されたリストのどちらを選択するかを決定するためにこのアプローチがどのように使用されるかをシミュレートすることにより、アプローチの有用性の詳細な評価を実施します。

要約(オリジナル)

Many diagnostic errors occur because clinicians cannot easily access relevant information in patient Electronic Health Records (EHRs). In this work we propose a method to use LLMs to identify pieces of evidence in patient EHR data that indicate increased or decreased risk of specific diagnoses; our ultimate aim is to increase access to evidence and reduce diagnostic errors. In particular, we propose a Neural Additive Model to make predictions backed by evidence with individualized risk estimates at time-points where clinicians are still uncertain, aiming to specifically mitigate delays in diagnosis and errors stemming from an incomplete differential. To train such a model, it is necessary to infer temporally fine-grained retrospective labels of eventual ‘true’ diagnoses. We do so with LLMs, to ensure that the input text is from before a confident diagnosis can be made. We use an LLM to retrieve an initial pool of evidence, but then refine this set of evidence according to correlations learned by the model. We conduct an in-depth evaluation of the usefulness of our approach by simulating how it might be used by a clinician to decide between a pre-defined list of differential diagnoses.

arxiv情報

著者 Denis Jered McInerney,William Dickinson,Lucy Flynn,Andrea Young,Geoffrey Young,Jan-Willem van de Meent,Byron C. Wallace
発行日 2024-02-15 17:05:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク