Electrocardiogram Report Generation and Question Answering via Retrieval-Augmented Self-Supervised Modeling

要約

心電図 (ECG) の解釈と包括的なレポートの作成は、心臓病学において依然として困難な作業であり、多くの場合、専門知識と多大な時間の投資が必要です。
これらの重要な問題に対処するために、ECG-ReGen を提案します。これは、ECG からテキストへのレポート生成と質問応答のための検索ベースのアプローチです。
私たちの方法では、ECG エンコーダーの自己教師あり学習を活用し、効率的な類似性検索とレポート取得を可能にします。
事前トレーニングと動的検索および大規模言語モデル (LLM) ベースの改良を組み合わせることで、ECG-ReGen は ECG データを効果的に分析し、関連するクエリに回答し、患者ケアを向上させる可能性があります。
PTB-XL および MIMIC-IV-ECG データセットに対して行われた実験では、レポート生成のドメイン内シナリオとクロスドメイン シナリオの両方で優れたパフォーマンスが実証されました。
さらに、私たちのアプローチは、ゼロショット質問応答に既製の LLM を利用する場合、完全に監視された方法と比較して、ECG-QA データセットで競争力のあるパフォーマンスを示します。
自己教師ありエンコーダと LLM を効果的に組み合わせたこのアプローチは、正確な ECG 解釈のためのスケーラブルで効率的なソリューションを提供し、臨床上の意思決定を強化する大きな可能性を秘めています。

要約(オリジナル)

Interpreting electrocardiograms (ECGs) and generating comprehensive reports remain challenging tasks in cardiology, often requiring specialized expertise and significant time investment. To address these critical issues, we propose ECG-ReGen, a retrieval-based approach for ECG-to-text report generation and question answering. Our method leverages a self-supervised learning for the ECG encoder, enabling efficient similarity searches and report retrieval. By combining pre-training with dynamic retrieval and Large Language Model (LLM)-based refinement, ECG-ReGen effectively analyzes ECG data and answers related queries, with the potential of improving patient care. Experiments conducted on the PTB-XL and MIMIC-IV-ECG datasets demonstrate superior performance in both in-domain and cross-domain scenarios for report generation. Furthermore, our approach exhibits competitive performance on ECG-QA dataset compared to fully supervised methods when utilizing off-the-shelf LLMs for zero-shot question answering. This approach, effectively combining self-supervised encoder and LLMs, offers a scalable and efficient solution for accurate ECG interpretation, holding significant potential to enhance clinical decision-making.

arxiv情報

著者 Jialu Tang,Tong Xia,Yuan Lu,Cecilia Mascolo,Aaqib Saeed
発行日 2024-09-13 12:50:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク