Dynamic Q&A of Clinical Documents with Large Language Models

要約

電子医療記録 (EHR) には、重要な患者データが臨床ノートとして保存されます。
これらのメモの量と複雑さが増大するにつれて、手動による抽出は困難になります。
この研究では、臨床ノートに関する動的な質問応答のための大規模言語モデル (LLM) を使用した自然言語インターフェイスが導入されています。
Langchain とトランスフォーマーベースの LLM を利用した当社のチャットボットにより、ユーザーは自然言語でクエリを実行し、臨床ノートから関連する回答を受け取ることができます。
さまざまな埋め込みモデルと高度な LLM を利用した実験では、高いコンピューティング要求があるにもかかわらず、Wizard Vicuna の優れた精度が示されました。
重み量子化を含むモデルの最適化により、レイテンシーが約 48 倍改善されます。
有望な結果は可能性を示していますが、モデル幻覚や限られた多様な医療症例の評価などの課題が残っています。
これらのギャップに対処することは、臨床ノートの価値を引き出し、AI 主導の臨床意思決定を推進するために重要です。

要約(オリジナル)

Electronic health records (EHRs) house crucial patient data in clinical notes. As these notes grow in volume and complexity, manual extraction becomes challenging. This work introduces a natural language interface using large language models (LLMs) for dynamic question-answering on clinical notes. Our chatbot, powered by Langchain and transformer-based LLMs, allows users to query in natural language, receiving relevant answers from clinical notes. Experiments, utilizing various embedding models and advanced LLMs, show Wizard Vicuna’s superior accuracy, albeit with high compute demands. Model optimization, including weight quantization, improves latency by approximately 48 times. Promising results indicate potential, yet challenges such as model hallucinations and limited diverse medical case evaluations remain. Addressing these gaps is crucial for unlocking the value in clinical notes and advancing AI-driven clinical decision-making.

arxiv情報

著者 Ran Elgedawy,Ioana Danciu,Maria Mahbub,Sudarshan Srinivasan
発行日 2024-07-02 15:14:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.IR パーマリンク