要約
説明可能性は、医療イメージングにおけるAIモデルにとって重要な問題のままであり、臨床医がAI主導の予測を信頼することは困難です。
3Dモデル向けの最初の因果関係ベースの事後説明ツールである3D Rexを紹介します。
3D Rexは、実際の因果関係の理論を使用して、モデルの決定に最も重要な領域を強調する責任マップを生成します。
ストローク検出モデルで3D Rexをテストし、ストロークに関連する機能の空間分布に関する洞察を提供します。
要約(オリジナル)
Explainability remains a significant problem for AI models in medical imaging, making it challenging for clinicians to trust AI-driven predictions. We introduce 3D ReX, the first causality-based post-hoc explainability tool for 3D models. 3D ReX uses the theory of actual causality to generate responsibility maps which highlight the regions most crucial to the model’s decision. We test 3D ReX on a stroke detection model, providing insight into the spatial distribution of features relevant to stroke.
arxiv情報
著者 | Melane Navaratnarajah,Sophie A. Martin,David A. Kelly,Nathan Blake,Hana Chockler |
発行日 | 2025-02-26 18:25:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google