Neural Summarization of Electronic Health Records

要約

退院に関する文書は、医師が作成する最も重要な文書の 1 つですが、時間のかかる文書です。
この研究の目的は、ニューラル ネットワーク要約モデルを使用して退院要約を自動的に生成することでした。
私たちは、退院概要を生成するさまざまなデータの準備とニューラル ネットワークのトレーニング手法を研究しました。
MIMIC-III データセットの看護メモと退院概要を使用し、4 つの最先端のニューラル ネットワーク要約モデル (BART、T5、Longformer、FLAN) を使用して退院概要のさまざまなセクションを自動生成する可能性を研究しました。
T5)。
私たちの実験では、看護ノートをソースとして、退院概要の個別のセクションをターゲット出力(「現在の病気の病歴」など)として含むトレーニング環境が、言語モデルの効率とテキストの品質を向上させることが示されました。
私たちの調査結果によると、微調整された BART モデルは、標準の既製バージョンと比較して、ROUGE F1 スコアを 43.6% 改善しました。
また、ベースライン BART モデルを他のセットアップで微調整すると、さまざまな程度の改善が生じることもわかりました (最大 80% の相対改善)。
また、微調整された T5 は一般に他の微調整されたモデルよりも高い ROUGE F1 スコアを達成し、微調整された FLAN-T5 は全体で最高の ROUGE スコア (つまり 45.6) を達成することも観察されました。
微調整された言語モデルの大部分では、退院概要レポートのセクションを個別に要約する方が、レポート全体の要約よりも量的に優れていました。
一方、以前に命令を微調整した言語モデルを微調整すると、レポート全体を要約する際のパフォーマンスが向上しました。
この研究は、言語モデルによる退院概要の自動生成用に設計された焦点を絞ったデータセットにより、一貫した退院概要セクションを生成できると結論付けています。

要約(オリジナル)

Hospital discharge documentation is among the most essential, yet time-consuming documents written by medical practitioners. The objective of this study was to automatically generate hospital discharge summaries using neural network summarization models. We studied various data preparation and neural network training techniques that generate discharge summaries. Using nursing notes and discharge summaries from the MIMIC-III dataset, we studied the viability of the automatic generation of various sections of a discharge summary using four state-of-the-art neural network summarization models (BART, T5, Longformer and FLAN-T5). Our experiments indicated that training environments including nursing notes as the source, and discrete sections of the discharge summary as the target output (e.g. ‘History of Present Illness’) improve language model efficiency and text quality. According to our findings, the fine-tuned BART model improved its ROUGE F1 score by 43.6% against its standard off-the-shelf version. We also found that fine-tuning the baseline BART model with other setups caused different degrees of improvement (up to 80% relative improvement). We also observed that a fine-tuned T5 generally achieves higher ROUGE F1 scores than other fine-tuned models and a fine-tuned FLAN-T5 achieves the highest ROUGE score overall, i.e., 45.6. For majority of the fine-tuned language models, summarizing discharge summary report sections separately outperformed the summarization the entire report quantitatively. On the other hand, fine-tuning language models that were previously instruction fine-tuned showed better performance in summarizing entire reports. This study concludes that a focused dataset designed for the automatic generation of discharge summaries by a language model can produce coherent Discharge Summary sections.

arxiv情報

著者 Koyena Pal,Seyed Ali Bahrainian,Laura Mercurio,Carsten Eickhoff
発行日 2023-05-24 15:05:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR パーマリンク