A Framework for Interpretability in Machine Learning for Medical Imaging

要約

医用画像処理 (MLMI) における機械学習モデルの解釈可能性は、研究の重要な方向性です。
しかし、解釈可能性が何を意味するかについては、一般的に曖昧な感覚があります。
MLMI で解釈可能性が必要になるのはなぜですか?
解釈可能性が必要な場合、実際に対処しようとする目標は何でしょうか?
これらの質問に答えるために、MLMI における解釈可能性の目標と要素を形式化する必要があることを確認しました。
医用画像解析とその機械学習との接点の両方に共通する現実世界のタスクと目標について推論することにより、解釈可能性の 5 つの中心要素であるローカリゼーション、視覚的認識可能性、物理的帰属、モデルの透明性、および実用性を特定します。
これから、MLMI における解釈可能性のフレームワークに到達します。これは、この文脈で解釈可能性に近づくための段階的なガイドとして機能します。
全体として、このホワイトペーパーは医療画像の文脈における解釈可能性のニーズを形式的に示しており、手法の設計を導き、現実世界での使用法を改善するための具体的な MLMI 固有の目標と考慮事項を、応用的な視点で明確にしています。
私たちの目標は、モデルの設計者と実践者に実用的で教訓的な情報を提供し、医用画像分野のモデルの開発者に解釈可能性が達成していることについてより深く推論するよう促し、解釈可能性研究の将来の方向性を提案することです。

要約(オリジナル)

Interpretability for machine learning models in medical imaging (MLMI) is an important direction of research. However, there is a general sense of murkiness in what interpretability means. Why does the need for interpretability in MLMI arise? What goals does one actually seek to address when interpretability is needed? To answer these questions, we identify a need to formalize the goals and elements of interpretability in MLMI. By reasoning about real-world tasks and goals common in both medical image analysis and its intersection with machine learning, we identify five core elements of interpretability: localization, visual recognizability, physical attribution, model transparency, and actionability. From this, we arrive at a framework for interpretability in MLMI, which serves as a step-by-step guide to approaching interpretability in this context. Overall, this paper formalizes interpretability needs in the context of medical imaging, and our applied perspective clarifies concrete MLMI-specific goals and considerations in order to guide method design and improve real-world usage. Our goal is to provide practical and didactic information for model designers and practitioners, inspire developers of models in the medical imaging field to reason more deeply about what interpretability is achieving, and suggest future directions of interpretability research.

arxiv情報

著者 Alan Q. Wang,Batuhan K. Karaman,Heejong Kim,Jacob Rosenthal,Rachit Saluja,Sean I. Young,Mert R. Sabuncu
発行日 2023-12-20 14:19:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク