要約
eXplainable AI (XAI) 技術を使用して機械学習 (ML) モデルを説明することは、モデルの透明性と信頼性を高めるために不可欠になっています。
これは、倫理的で健全で信頼できる結果の予測を保証するためにモデルの決定を理解することが重要であるヘルスケアのような一か八かの分野では特に重要です。
ただし、ユーザーは、特定のユースケースに対してどの説明方法を選択すればよいか混乱することがよくあります。
グラフ畳み込みネットワーク (GCN) を利用した人間活動認識 (HAR) の領域内で、広く使用されている説明可能性手法である Shapley Additive Explains (SHAP) と Gradient-weighted Class Activation Mapping (GradCAM) の比較分析を紹介します。
この研究では、医療上重要な脳性麻痺 (CP) 症例を含む 2 つの現実世界のデータセットからの骨格ベースのデータでこれらの手法を評価することで、両方のアプローチの長所、限界、相違点について重要な洞察が得られ、治療法を選択するためのロードマップが提供されます。
特定のモデルやアプリケーションに基づいた最適な説明方法。
摂動実験による特徴重要度ランキング、解釈可能性、モデル感度に焦点を当てて、これらの手法を定量的かつ定量的に比較します。
SHAP は詳細な入力特徴の属性を提供しますが、GradCAM はより高速で空間指向の説明を提供し、アプリケーションの要件に応じて両方の方法を補完します。
特に医療のような機密性の高い環境において、ML モデルの信頼性と透明性を高める上での XAI の重要性を考慮して、私たちの研究は、SHAP と GradCAM がどのように相互補完して、より解釈可能で実用的なモデルの説明を提供できるかを実証しています。
要約(オリジナル)
Explaining machine learning (ML) models using eXplainable AI (XAI) techniques has become essential to make them more transparent and trustworthy. This is especially important in high-stakes domains like healthcare, where understanding model decisions is critical to ensure ethical, sound, and trustworthy outcome predictions. However, users are often confused about which explanability method to choose for their specific use case. We present a comparative analysis of widely used explainability methods, Shapley Additive Explanations (SHAP) and Gradient-weighted Class Activation Mapping (GradCAM), within the domain of human activity recognition (HAR) utilizing graph convolutional networks (GCNs). By evaluating these methods on skeleton-based data from two real-world datasets, including a healthcare-critical cerebral palsy (CP) case, this study provides vital insights into both approaches’ strengths, limitations, and differences, offering a roadmap for selecting the most appropriate explanation method based on specific models and applications. We quantitatively and quantitatively compare these methods, focusing on feature importance ranking, interpretability, and model sensitivity through perturbation experiments. While SHAP provides detailed input feature attribution, GradCAM delivers faster, spatially oriented explanations, making both methods complementary depending on the application’s requirements. Given the importance of XAI in enhancing trust and transparency in ML models, particularly in sensitive environments like healthcare, our research demonstrates how SHAP and GradCAM could complement each other to provide more interpretable and actionable model explanations.
arxiv情報
著者 | Felix Tempel,Daniel Groos,Espen Alexander F. Ihlen,Lars Adde,Inga Strümke |
発行日 | 2024-12-20 15:53:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google