要約
大規模な言語モデルは、事前トレーニングや命令の微調整などの技術を活用して、さまざまな自然言語処理 (NLP) タスクで優れたパフォーマンスを示しています。
これらの進歩にもかかわらず、事実の不正確さ、推論能力、実世界の経験に基づく根拠の欠如などの課題により、医療応用におけるその有効性は限られています。
この研究では、臨床シナリオ向けに明示的に設計され最適化された言語モデルである ClinicalGPT を紹介します。
ClinicalGPT は、医療記録、分野固有の知識、複数ラウンドの対話によるコンサルテーションなど、広範かつ多様な現実世界のデータをトレーニング プロセスに組み込むことで、複数の臨床タスクを処理する準備が整います。
さらに、医学知識の問答、健康診断、患者相談、カルテの診断分析などを含めた総合的な評価の枠組みを導入しています。
私たちの結果は、ClinicalGPT がこれらのタスクにおいて他のモデルよりも大幅に優れていることを示しており、大規模な言語モデルを医療の重要な領域に適応させる際の私たちのアプローチの有効性を強調しています。
要約(オリジナル)
Large language models have exhibited exceptional performance on various Natural Language Processing (NLP) tasks, leveraging techniques such as the pre-training, and instruction fine-tuning. Despite these advances, their effectiveness in medical applications is limited, due to challenges such as factual inaccuracies, reasoning abilities, and lack grounding in real-world experience. In this study, we present ClinicalGPT, a language model explicitly designed and optimized for clinical scenarios. By incorporating extensive and diverse real-world data, such as medical records, domain-specific knowledge, and multi-round dialogue consultations in the training process, ClinicalGPT is better prepared to handle multiple clinical task. Furthermore, we introduce a comprehensive evaluation framework that includes medical knowledge question-answering, medical exams, patient consultations, and diagnostic analysis of medical records. Our results demonstrate that ClinicalGPT significantly outperforms other models in these tasks, highlighting the effectiveness of our approach in adapting large language models to the critical domain of healthcare.
arxiv情報
著者 | Guangyu Wang,Guoxing Yang,Zongxin Du,Longjun Fan,Xiaohu Li |
発行日 | 2023-06-16 16:56:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google