IUTEAM1 at MEDIQA-Chat 2023: Is simple fine tuning effective for multilayer summarization of clinical conversations?

要約

臨床会話の要約は、自然言語処理の重要なアプリケーションとなっています。
この研究では、チャートノートと呼ばれる生成された医療レポートの全体的な精度を向上させるために利用できる要約モデルアンサンブルアプローチを分析する予定です。
この作業は、ベースラインを作成する単一の要約モデルから始まります。
次に、チャート ノートの別のセクションでトレーニングされた要約モデルのアンサンブルにつながります。
これは、生成されたテキストの一貫性を高めるために、生成された結果を多層/段階的な方法で別の要約モデルに渡すという最終的なアプローチにつながります。
私たちの結果は、各セクションに特化したモデルのアンサンブルはより良い結果を生み出しますが、多層/段階的なアプローチでは精度が向上しないことを示しています。
上記の論文のコードは、https://github.com/dhananjay-srivastava/MEDIQA-Chat-2023-iuteam1.git で入手できます。

要約(オリジナル)

Clinical conversation summarization has become an important application of Natural language Processing. In this work, we intend to analyze summarization model ensembling approaches, that can be utilized to improve the overall accuracy of the generated medical report called chart note. The work starts with a single summarization model creating the baseline. Then leads to an ensemble of summarization models trained on a separate section of the chart note. This leads to the final approach of passing the generated results to another summarization model in a multi-layer/stage fashion for better coherency of the generated text. Our results indicate that although an ensemble of models specialized in each section produces better results, the multi-layer/stage approach does not improve accuracy. The code for the above paper is available at https://github.com/dhananjay-srivastava/MEDIQA-Chat-2023-iuteam1.git

arxiv情報

著者 Dhananjay Srivastava
発行日 2023-06-07 10:47:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク