ImpressionGPT: An Iterative Optimizing Framework for Radiology Report Summarization with ChatGPT

要約

タイトル:Radiology Report Summarization with ChatGPTのための反復最適化フレームワークであるImpressionGPT

要約:

– 放射線科医と他の医師間のコミュニケーションにおいて、報告書の「Impression」セクションは重要であり、通常、放射線科医は「Findings」セクションに基づいてそれを書きます。
– 自動印象生成の最近の研究は、事前学習および事前学習言語モデルの微調整に大規模な医療テキストデータを使用することによって有望な結果を達成しています。しかし、これらのモデルは多くの医療テキストデータを必要とし、一般化性能が低い傾向があります。
– 大規模言語モデル(LLM)のようなモデルは、強力な一般化能力とパフォーマンスを示していますが、放射線科などの特定のドメインにおける性能は未だに研究されており、限界がある可能性があります。
– これを解決するために、ImpressionGPTを提案しています。ImpressionGPTは、LLMのIn-context learning能力を活用し、ドメイン固有の個別化されたデータを用いて動的なコンテキストを構築することにより、モデルが既存のデータから意味的に類似した例から文脈的な知識を学習できるようにすることができます。
– さらに、自動評価を実施し、対応する指示プロンプトを構成してモデルをさらに最適化する反復最適化アルゴリズムを設計します。
– 提案されたImpressionGPTモデルは、LLMの追加のトレーニングデータや微調整を必要とせずに、MIMIC-CXRおよびOpenIデータセットで最新のパフォーマンスを実現しています。この作品は、一般的な用途のLLMとさまざまなドメインの特定の言語処理ニーズの間のギャップを埋めることができる、LLMを局所化するパラダイムを提供しています。

要約(オリジナル)

The ‘Impression’ section of a radiology report is a critical basis for communication between radiologists and other physicians, and it is typically written by radiologists based on the ‘Findings’ section. However, writing numerous impressions can be laborious and error-prone for radiologists. Although recent studies have achieved promising results in automatic impression generation using large-scale medical text data for pre-training and fine-tuning pre-trained language models, such models often require substantial amounts of medical text data and have poor generalization performance. While large language models (LLMs) like ChatGPT have shown strong generalization capabilities and performance, their performance in specific domains, such as radiology, remains under-investigated and potentially limited. To address this limitation, we propose ImpressionGPT, which leverages the in-context learning capability of LLMs by constructing dynamic contexts using domain-specific, individualized data. This dynamic prompt approach enables the model to learn contextual knowledge from semantically similar examples from existing data. Additionally, we design an iterative optimization algorithm that performs automatic evaluation on the generated impression results and composes the corresponding instruction prompts to further optimize the model. The proposed ImpressionGPT model achieves state-of-the-art performance on both MIMIC-CXR and OpenI datasets without requiring additional training data or fine-tuning the LLMs. This work presents a paradigm for localizing LLMs that can be applied in a wide range of similar application scenarios, bridging the gap between general-purpose LLMs and the specific language processing needs of various domains.

arxiv情報

著者 Chong Ma,Zihao Wu,Jiaqi Wang,Shaochen Xu,Yaonai Wei,Zhengliang Liu,Xi Jiang,Lei Guo,Xiaoyan Cai,Shu Zhang,Tuo Zhang,Dajiang Zhu,Dinggang Shen,Tianming Liu,Xiang Li
発行日 2023-05-03 08:09:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CL パーマリンク