Lightweight Clinical Decision Support System using QLoRA-Fine-Tuned LLMs and Retrieval-Augmented Generation

要約

この研究論文では、医療における大規模な言語モデル(LLM)の適用を調査し、特に病院固有のデータと統合された検索された生成(RAG)を通じて医学的意思決定支援を強化し、量子化された低ランク適応(QLORA)を使用した微調整に焦点を当てています。
このシステムは、Llama 3.2-3B-Instructを基礎モデルとして利用しています。
コンテキスト関連のヘルスケア情報を埋め込み、取得することにより、システムは応答の精度を大幅に向上させます。
Qloraは、顕著なパラメーターの効率と記憶の最適化を促進し、特殊な量子化技術を通じて医療情報の完全性を維持します。
また、私たちの研究は、私たちのモデルがさまざまな医療ベンチマークで比較的うまく機能していることを示しており、基本的な医療提案をするために使用できることを示しています。
このホワイトペーパーでは、患者の症状や病歴からの疾患予測の強化、治療の提案、複雑な医療報告の効率的な要約など、そのアーキテクチャ、量子化方法、主要なヘルスケアアプリケーションなど、システムの技術コンポーネントについて詳しく説明しています。
倫理的な考慮事項と患者のプライバシー、データセキュリティ、および厳密な臨床検証の必要性に触れ、そのようなシステムを実際のヘルスケアワークフローに統合することの実際的な課題です。
さらに、軽量の量子重量は、低リソースの病院環境でも展開のスケーラビリティと容易さを保証します。
最後に、この論文は、LLMがヘルスケアに与えるより広い影響の分析で締めくくり、医療環境におけるLLMの将来の方向性を概説しています。

要約(オリジナル)

This research paper investigates the application of Large Language Models (LLMs) in healthcare, specifically focusing on enhancing medical decision support through Retrieval-Augmented Generation (RAG) integrated with hospital-specific data and fine-tuning using Quantized Low-Rank Adaptation (QLoRA). The system utilizes Llama 3.2-3B-Instruct as its foundation model. By embedding and retrieving context-relevant healthcare information, the system significantly improves response accuracy. QLoRA facilitates notable parameter efficiency and memory optimization, preserving the integrity of medical information through specialized quantization techniques. Our research also shows that our model performs relatively well on various medical benchmarks, indicating that it can be used to make basic medical suggestions. This paper details the system’s technical components, including its architecture, quantization methods, and key healthcare applications such as enhanced disease prediction from patient symptoms and medical history, treatment suggestions, and efficient summarization of complex medical reports. We touch on the ethical considerations-patient privacy, data security, and the need for rigorous clinical validation-as well as the practical challenges of integrating such systems into real-world healthcare workflows. Furthermore, the lightweight quantized weights ensure scalability and ease of deployment even in low-resource hospital environments. Finally, the paper concludes with an analysis of the broader impact of LLMs on healthcare and outlines future directions for LLMs in medical settings.

arxiv情報

著者 Mohammad Shoaib Ansari,Mohd Sohail Ali Khan,Shubham Revankar,Aditya Varma,Anil S. Mokhade
発行日 2025-05-06 10:31:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク