Improving Expert Radiology Report Summarization by Prompting Large Language Models with a Layperson Summary

要約

放射線科レポート要約 (RRS) は患者ケアにとって極めて重要であり、詳細な「所見」からの簡潔な「印象」が必要です。
この論文では、最初に一般向けの要約を生成することによって RRS を強化するための新しいプロンプト戦略を紹介します。
このアプローチは、医師と患者のやり取りからインスピレーションを得た、専門家ではないコミュニケーション手法を使用して、重要な観察を正規化し、複雑な情報を簡素化します。
この方法を少数ショットのコンテキスト内学習と組み合わせると、一般的な用語を特定の結果にリンクするモデルの能力が向上します。
このアプローチを MIMIC-CXR、CheXpert、および MIMIC-III データセットで評価し、Meta-Llama-3-8B のような 7B/8B パラメーターの最先端のオープンソース大規模言語モデル (LLM) に対してベンチマークを行います。
指示する。
私たちの結果は、特にドメイン外テストで要約の精度とアクセシビリティが向上していることを示しており、一部の指標では 5% もの改善が見られます。

要約(オリジナル)

Radiology report summarization (RRS) is crucial for patient care, requiring concise ‘Impressions’ from detailed ‘Findings.’ This paper introduces a novel prompting strategy to enhance RRS by first generating a layperson summary. This approach normalizes key observations and simplifies complex information using non-expert communication techniques inspired by doctor-patient interactions. Combined with few-shot in-context learning, this method improves the model’s ability to link general terms to specific findings. We evaluate this approach on the MIMIC-CXR, CheXpert, and MIMIC-III datasets, benchmarking it against 7B/8B parameter state-of-the-art open-source large language models (LLMs) like Meta-Llama-3-8B-Instruct. Our results demonstrate improvements in summarization accuracy and accessibility, particularly in out-of-domain tests, with improvements as high as 5% for some metrics.

arxiv情報

著者 Xingmeng Zhao,Tongnian Wang,Anthony Rios
発行日 2024-06-20 17:01:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク