SHAMSUL: Systematic Holistic Analysis to investigate Medical Significance Utilizing Local interpretability methods in deep learning for chest radiography pathology prediction

要約

ディープ ニューラル ネットワークの解釈可能性は、医療およびヘルスケアの分野で大きな関心の対象となっています。
この注目は、透明性、法的および倫理的考慮事項、および臨床意思決定支援システムにおいてこれらのディープ ニューラル ネットワークによって生成される予測の医学的重要性に関する懸念から生じています。
この問題に対処するために、私たちの研究では、4 つの確立された解釈可能性手法、つまり Local Interpretable Model-agnostic Explains (LIME)、Shapley Additive exPlanations (SHAP)、Gradient-weighted Class Activation Mapping (Grad-CAM)、および Layer の適用を詳しく掘り下げています。
-wise 関連性伝播 (LRP)。
マルチラベル、マルチクラスの胸部 X 線撮影データセットを使用した転移学習のアプローチを活用して、特定の病理学クラスに関連する予測を解釈することを目指しています。
当社の分析には単一ラベルと複数ラベルの両方の予測が含まれており、人間の専門家の注釈と比較される定量的および定性的調査を通じて、包括的で公平な評価が提供されます。
特に、Grad-CAM は定量的評価において最も良好なパフォーマンスを示し、LIME ヒートマップ スコア セグメンテーション視覚化は最高レベルの医学的重要性を示します。
私たちの研究は、これらの解釈可能性方法を評価するために採用された総合的なアプローチでの成果と直面する課題の両方を強調しており、胸部X線撮影画像を超えた多様な情報源を組み込んだマルチモーダルベースのアプローチが、医療分野での解釈可能性を高めるための追加の洞察を提供できる可能性があることを示唆しています。

要約(オリジナル)

The interpretability of deep neural networks has become a subject of great interest within the medical and healthcare domain. This attention stems from concerns regarding transparency, legal and ethical considerations, and the medical significance of predictions generated by these deep neural networks in clinical decision support systems. To address this matter, our study delves into the application of four well-established interpretability methods: Local Interpretable Model-agnostic Explanations (LIME), Shapley Additive exPlanations (SHAP), Gradient-weighted Class Activation Mapping (Grad-CAM), and Layer-wise Relevance Propagation (LRP). Leveraging the approach of transfer learning with a multi-label-multi-class chest radiography dataset, we aim to interpret predictions pertaining to specific pathology classes. Our analysis encompasses both single-label and multi-label predictions, providing a comprehensive and unbiased assessment through quantitative and qualitative investigations, which are compared against human expert annotation. Notably, Grad-CAM demonstrates the most favorable performance in quantitative evaluation, while the LIME heatmap score segmentation visualization exhibits the highest level of medical significance. Our research underscores both the outcomes and the challenges faced in the holistic approach adopted for assessing these interpretability methods and suggests that a multimodal-based approach, incorporating diverse sources of information beyond chest radiography images, could offer additional insights for enhancing interpretability in the medical domain.

arxiv情報

著者 Mahbub Ul Alam,Jaakko Hollmén,Jón Rúnar Baldvinsson,Rahim Rahmani
発行日 2023-11-17 18:47:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.IV パーマリンク