要約
タイトル:3D多因子磁気共鳴画像を用いた脳腫瘍分類のためのケースベースの解釈可能なモデル、MProtoNet。
要約:
– 最近の医療イメージングにおけるディープ畳み込みニューラルネットワークの応用により、その解釈可能性に対する懸念が高まっている。
– ほとんどの説明可能なディープラーニングアプリケーションでは、GradCAMなどの事後法を使用して特徴寄与マップを生成するが、ProtoPNetとその派生物と呼ばれる新しいタイプのケースベースの推論モデルがある。これらは学習中にプロトタイプを識別し、入力画像パッチをこれらのプロトタイプと比較する。
– 3D多因子磁気共鳴画像(mpMRI)データを用いた脳腫瘍分類に ProtoPNet を拡張するため、最初の医療プロトタイプネットワーク(MProtoNet)を提案する。
– 2D自然画像と3D mpMRI の必要性の違いに対応するために、新しいソフトマスキングとオンラインCAM損失のアテンションモジュールを導入している。ソフトマスキングはアテンションマップを鋭くするのに役立ち、オンラインCAM損失はアテンションモジュールをトレーニングする際に画像レベルのラベルを直接使用する。
– MProtoNet は、GradCAMといくつかの ProtoPNet の派生体と比較して、トレーニング中に人間による注釈がなくても、正確さと地域の一致という解釈可能性の指標の両方で統計的に有意な改善を達成する(最高活性化精度は $0.713\pm0.058$)。ソースコードは https://github.com/aywi/mprotonet で入手可能。
要約(オリジナル)
Recent applications of deep convolutional neural networks in medical imaging raise concerns about their interpretability. While most explainable deep learning applications use post hoc methods (such as GradCAM) to generate feature attribution maps, there is a new type of case-based reasoning models, namely ProtoPNet and its variants, which identify prototypes during training and compare input image patches with those prototypes. We propose the first medical prototype network (MProtoNet) to extend ProtoPNet to brain tumor classification with 3D multi-parametric magnetic resonance imaging (mpMRI) data. To address different requirements between 2D natural images and 3D mpMRIs especially in terms of localizing attention regions, a new attention module with soft masking and online-CAM loss is introduced. Soft masking helps sharpen attention maps, while online-CAM loss directly utilizes image-level labels when training the attention module. MProtoNet achieves statistically significant improvements in interpretability metrics of both correctness and localization coherence (with a best activation precision of $0.713\pm0.058$) without human-annotated labels during training, when compared with GradCAM and several ProtoPNet variants. The source code is available at https://github.com/aywi/mprotonet.
arxiv情報
著者 | Yuanyuan Wei,Roger Tam,Xiaoying Tang |
発行日 | 2023-04-14 15:51:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI