Explaining Deep Learning for ECG Analysis: Building Blocks for Auditing and Knowledge Discovery

要約

ディープ ニューラル ネットワークは、心臓の状態や隠れた臨床要因を正確に特定できるため、ECG データの分析にますます人気が高まっています。
ただし、これらのモデルのブラック ボックスの性質による透明性の欠如は、一般的な懸念事項です。
この問題に対処するには、Explainable AI (XAI) 手法を使用できます。
この研究では、ポストホック XAI 手法の包括的な分析を示し、ローカル (サンプルごとの属性) とグローバル (ドメイン専門家の概念に基づく) の観点を調査します。
当社は、賢明な帰属方法を特定するための一連の健全性チェックを確立し、専門家のルールに従って定量的な証拠を提供します。
このデータセット全体の分析は、患者サブグループ全体のデータを集約することにより、事例証拠を超えています。
さらに、これらの XAI 技術が心筋梗塞のサブタイプの特定などの知識発見にどのように利用できるかを示します。
私たちは、これらの提案された方法が、ECG 分析の分野での知識発見だけでなく、認証プロセス中の内部妥当性の補完的な評価のための構成要素として機能できると信じています。

要約(オリジナル)

Deep neural networks have become increasingly popular for analyzing ECG data because of their ability to accurately identify cardiac conditions and hidden clinical factors. However, the lack of transparency due to the black box nature of these models is a common concern. To address this issue, explainable AI (XAI) methods can be employed. In this study, we present a comprehensive analysis of post-hoc XAI methods, investigating the local (attributions per sample) and global (based on domain expert concepts) perspectives. We have established a set of sanity checks to identify sensible attribution methods, and we provide quantitative evidence in accordance with expert rules. This dataset-wide analysis goes beyond anecdotal evidence by aggregating data across patient subgroups. Furthermore, we demonstrate how these XAI techniques can be utilized for knowledge discovery, such as identifying subtypes of myocardial infarction. We believe that these proposed methods can serve as building blocks for a complementary assessment of the internal validity during a certification process, as well as for knowledge discovery in the field of ECG analysis.

arxiv情報

著者 Patrick Wagner,Temesgen Mehari,Wilhelm Haverkamp,Nils Strodthoff
発行日 2023-05-26 15:52:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, eess.SP, stat.ML パーマリンク