Automated clinical coding using off-the-shelf large language models

要約

患者の入院に診断 ICD コードを割り当てるタスクは、通常、専門の人間のコード作成者によって実行されます。
自動化された ICD コーディングへの取り組みは、教師あり深層学習モデルによって占められています。
しかし、多数のまれなコードを予測する方法を学習することの難しさは、依然として臨床現場での採用の障壁となっています。
この作業では、既製の事前トレーニング済み生成大規模言語モデル (LLM) を活用して、タスク固有のさらなるトレーニングを必要とせず、ゼロショットおよび少数ショットのコード割り当てに適した実用的なソリューションを開発します。
教師なしの事前トレーニングだけでは、ICD オントロジーと専門的な臨床コーディング タスクの正確な知識が保証されないため、タスクを情報抽出として組み立て、コード化された各概念の説明を提供し、関連する言及を取得するようにモデルに依頼します。
効率性を高めるため、すべてのコードを反復処理するのではなく、ICD オントロジーの階層的な性質を利用して、関連するコードをまばらに検索します。

要約(オリジナル)

The task of assigning diagnostic ICD codes to patient hospital admissions is typically performed by expert human coders. Efforts towards automated ICD coding are dominated by supervised deep learning models. However, difficulties in learning to predict the large number of rare codes remain a barrier to adoption in clinical practice. In this work, we leverage off-the-shelf pre-trained generative large language models (LLMs) to develop a practical solution that is suitable for zero-shot and few-shot code assignment, with no need for further task-specific training. Unsupervised pre-training alone does not guarantee precise knowledge of the ICD ontology and specialist clinical coding task, therefore we frame the task as information extraction, providing a description of each coded concept and asking the model to retrieve related mentions. For efficiency, rather than iterating over all codes, we leverage the hierarchical nature of the ICD ontology to sparsely search for relevant codes.

arxiv情報

著者 Joseph S. Boyle,Antanas Kascenas,Pat Lok,Maria Liakata,Alison Q. O’Neil
発行日 2023-11-13 12:38:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, I.2.7 パーマリンク