Improving Clinical Question Answering with Multi-Task Learning: A Joint Approach for Answer Extraction and Medical Categorization

要約

臨床質問応答(CQA)は、医学的意思決定において重要な役割を果たし、医師が電子医療記録(EMR)から関連情報を抽出できるようにします。
Bert、Biobert、ClinicalBertなどの変圧器ベースのモデルはCQAで最先端のパフォーマンスを実証していますが、既存のモデルは抽出された回答を分類する能力がありません。

この制限に対処するために、回答抽出と医療分類の両方についてCQAモデルを共同でトレーニングするマルチタスク学習(MTL)フレームワークを導入します。
回答スパンの予測に加えて、我々のモデルは、診断、投薬、症状、手順、ラボレポートの5つの標準化された医療カテゴリに応答を分類します。
この分類により、より構造化された解釈可能な出力が可能になり、現実世界のヘルスケア設定で臨床QAモデルがより有用になります。
医療質問応答のための大規模なデータセットであるEMRQAでのアプローチを評価します。
結果は、MTLが標準の微調整と比較してF1スコアを2.2%改善し、回答の分類で90.7%の精度を達成したことを示しています。
これらの調査結果は、MTLがCQAのパフォーマンスを向上させるだけでなく、分類および構造化された医療情報の検索のための効果的なメカニズムも導入することを示唆しています。

要約(オリジナル)

Clinical Question Answering (CQA) plays a crucial role in medical decision-making, enabling physicians to extract relevant information from Electronic Medical Records (EMRs). While transformer-based models such as BERT, BioBERT, and ClinicalBERT have demonstrated state-of-the-art performance in CQA, existing models lack the ability to categorize extracted answers, which is critical for structured retrieval, content filtering, and medical decision support. To address this limitation, we introduce a Multi-Task Learning (MTL) framework that jointly trains CQA models for both answer extraction and medical categorization. In addition to predicting answer spans, our model classifies responses into five standardized medical categories: Diagnosis, Medication, Symptoms, Procedure, and Lab Reports. This categorization enables more structured and interpretable outputs, making clinical QA models more useful in real-world healthcare settings. We evaluate our approach on emrQA, a large-scale dataset for medical question answering. Results show that MTL improves F1-score by 2.2% compared to standard fine-tuning, while achieving 90.7% accuracy in answer categorization. These findings suggest that MTL not only enhances CQA performance but also introduces an effective mechanism for categorization and structured medical information retrieval.

arxiv情報

著者 Priyaranjan Pattnayak,Hitesh Laxmichand Patel,Amit Agarwal,Bhargava Kumar,Srikant Panda,Tejaswini Kumar
発行日 2025-02-18 18:20:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク