Fine-Tuning LLMs for Reliable Medical Question-Answering Services

要約

私たちは、微調整されたラージ言語モデル (LLM) を使用して医療情報の精度と信頼性を向上させる、医療質問応答 (QA) サービスへの高度なアプローチを紹介します。
私たちの研究は、LLaMA-2 や Mistral などのモデルの最適化に焦点を当てており、正確で信頼性の高い医学的回答を提供することに大きな期待が寄せられています。
包括的なデータセットを活用することで、rsDoRA+ や ReRAG などの微調整技術を適用しました。
rsDoRA+ は、分解されたモデルの重み、低ランク行列のさまざまな学習率、およびランクの安定化の組み合わせを通じてモデルのパフォーマンスを強化し、効率の向上につながります。
ReRAG は、オンデマンドの検索と質問の書き換えを統合し、回答の精度をさらに高めます。
このアプローチにより、医療提供者は信頼性の高い情報に迅速にアクセスできるようになり、より効率的な意思決定を支援し、患者の信頼を高めることができます。
私たちの取り組みは、微調整された LLM が医療情報サービスの品質とアクセシビリティを大幅に向上させ、最終的にはすべての人にとってより良い医療成果に貢献する可能性を浮き彫りにしています。

要約(オリジナル)

We present an advanced approach to medical question-answering (QA) services, using fine-tuned Large Language Models (LLMs) to improve the accuracy and reliability of healthcare information. Our study focuses on optimizing models like LLaMA-2 and Mistral, which have shown great promise in delivering precise, reliable medical answers. By leveraging comprehensive datasets, we applied fine-tuning techniques such as rsDoRA+ and ReRAG. rsDoRA+ enhances model performance through a combination of decomposed model weights, varied learning rates for low-rank matrices, and rank stabilization, leading to improved efficiency. ReRAG, which integrates retrieval on demand and question rewriting, further refines the accuracy of the responses. This approach enables healthcare providers to access fast, dependable information, aiding in more efficient decision-making and fostering greater patient trust. Our work highlights the potential of fine-tuned LLMs to significantly improve the quality and accessibility of medical information services, ultimately contributing to better healthcare outcomes for all.

arxiv情報

著者 Ali Anaissi,Ali Braytee,Junaid Akram
発行日 2024-10-21 15:12:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク