要約
この論文では、患者と医師の会話から臨床概要を自動的に生成するように設計された新しいフレームワークである ClinicSum について説明します。
これは、会話トランスクリプトから主観、客観、評価、計画 (SOAP) 情報を抽出する検索ベースのフィルタリング モジュールと、微調整された事前トレーニング済み言語モデル (PLM) を利用した推論モジュールの 2 つのモジュール アーキテクチャを利用しています。
抽出された SOAP データを活用して、抽象化された臨床概要を生成します。
PLM を微調整するために、FigShare と MTS-Dialog という 2 つの公的に利用可能なデータセットと、対象分野の専門家 (SME) によって検証されたグラウンド トゥルースの概要を統合することにより、1,473 の会話と概要のペアで構成されるトレーニング データセットを作成しました。
ClinicSum の有効性は、自動指標 (ROUGE、BERTScore など) と専門家による人間の評価の両方を通じて評価されます。
その結果、ClinicSum は最先端の PLM を上回っており、自動評価では優れた精度、再現率、F-1 スコアを示し、人間による評価では中小企業から高い支持を得ており、自動臨床要約の堅牢なソリューションとなっていることが示されています。
要約(オリジナル)
This paper presents ClinicSum, a novel framework designed to automatically generate clinical summaries from patient-doctor conversations. It utilizes a two-module architecture: a retrieval-based filtering module that extracts Subjective, Objective, Assessment, and Plan (SOAP) information from conversation transcripts, and an inference module powered by fine-tuned Pre-trained Language Models (PLMs), which leverage the extracted SOAP data to generate abstracted clinical summaries. To fine-tune the PLM, we created a training dataset of consisting 1,473 conversations-summaries pair by consolidating two publicly available datasets, FigShare and MTS-Dialog, with ground truth summaries validated by Subject Matter Experts (SMEs). ClinicSum’s effectiveness is evaluated through both automatic metrics (e.g., ROUGE, BERTScore) and expert human assessments. Results show that ClinicSum outperforms state-of-the-art PLMs, demonstrating superior precision, recall, and F-1 scores in automatic evaluations and receiving high preference from SMEs in human assessment, making it a robust solution for automated clinical summarization.
arxiv情報
著者 | Subash Neupane,Himanshu Tripathi,Shaswata Mitra,Sean Bozorgzad,Sudip Mittal,Shahram Rahimi,Amin Amirlatifi |
発行日 | 2024-12-05 15:34:02+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google