MProtoNet: A Case-Based Interpretable Model for Brain Tumor Classification with 3D Multi-parametric Magnetic Resonance Imaging

要約

タイトル: 3Dマルチパラメトリック磁気共鳴画像を用いた脳腫瘍分類のための事例ベースの解釈可能モデル、MProtoNet

要約:
-深層畳み込みニューラルネットワークは医療画像において広く利用されるが、その解釈不可能性についての懸念が持たれている。
-Posh hoc(GradCAMなど)の手法を使用することで説明可能な深層学習アプリケーションが一般的に使用されているが、プロトタイプを学習中に同定して入力画像パッチとこれらのプロトタイプを比較する新しいタイプのケースベースの理論モデル、ProtoPNetとその派生を用いた解釈可能性の手法がある。
-我々は、磁気共鳴画像を用いた医療アプリケーションに、MProtoNetを提案する。MProtoNetはProtoPNetを拡張して3Dマルチパラメトリック磁気共鳴画像に対応するものであり、オンライン-CAMロスを伴う新しいアテンションモジュールを導入することで、2D自然画像とは異なるローカル化の注意領域に関する異なる要件に対処している。ソフトマスクは注意地図を精度よくすることに役立ち、オンライン-CAMロスは、アテンションモジュールのトレーニング時に画像レベルのラベルを直接利用する。
– MProtoNetは、GradCAMおよびいくつかのProtoPNetの派生と比較して、トレーニング中に人間による注釈を必要とせずに、正確さおよびローカライズの統一性の両方の解釈可能性の指標において統計的に有意な改善を達成した(最高のActivation precisionは$0.713\pm0.058$)。
– ソースコードはhttps://github.com/aywi/mprotonetにて提供される。

要約(オリジナル)

Recent applications of deep convolutional neural networks in medical imaging raise concerns about their interpretability. While most explainable deep learning applications use post hoc methods (such as GradCAM) to generate feature attribution maps, there is a new type of case-based reasoning models, namely ProtoPNet and its variants, which identify prototypes during training and compare input image patches with those prototypes. We propose the first medical prototype network (MProtoNet) to extend ProtoPNet to brain tumor classification with 3D multi-parametric magnetic resonance imaging (mpMRI) data. To address different requirements between 2D natural images and 3D mpMRIs especially in terms of localizing attention regions, a new attention module with soft masking and online-CAM loss is introduced. Soft masking helps sharpen attention maps, while online-CAM loss directly utilizes image-level labels when training the attention module. MProtoNet achieves statistically significant improvements in interpretability metrics of both correctness and localization coherence (with a best activation precision of $0.713\pm0.058$) without human-annotated labels during training, when compared with GradCAM and several ProtoPNet variants. The source code is available at https://github.com/aywi/mprotonet.

arxiv情報

著者 Yuanyuan Wei,Roger Tam,Xiaoying Tang
発行日 2023-04-13 04:39:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク