DProtoNet: Decoupling Prototype Activation via Multiple Dynamic Masks

要約

ニューラル ネットワークの解釈可能性は、最近大きな注目を集めています。
以前のプロトタイプベースの説明可能なネットワークには、推論プロセスと解釈プロセスの両方でプロトタイプのアクティベーションが含まれており、プロトタイプに特定の説明可能な構造が必要でした。
これにより、ネットワークが解釈可能になるにつれて、ネットワークの精度が低下します。
この問題を回避するために、3 つのモジュールを含むデカップリング プロトタイプ ネットワーク (DProtoNet) という新しいモデルを提案します。
1) エンコーダ モジュール: 表現力豊かな機能とプロトタイプを生成するための無制限のマスクを提案します。
2) 推論モジュール: ネットワークが一般化されたプロトタイプを学習できるように、プロトタイプを更新するマルチイメージ プロトタイプ学習方法を提案します。
3) 解釈モジュール: ネットワークを説明するために複数の動的マスク (MDM) デコーダーを提案します。これは、ネットワークの検出ノードで元の画像とマスク画像の一貫した活性化を使用してヒートマップを生成します。
ネットワークの決定を説明するためにプロトタイプのアクティベーションを使用しないようにすることで、プロトタイプベースのネットワークの推論モジュールと解釈モジュールを切り離し、ネットワークの精度と解釈可能性を同時に向上させることができます。
複数の公開された一般および医療データセットでテストします。
私たちの方法の精度は、以前の方法と比較して改善されており、最大 5% 改善することができます。
DProtoNet は、最先端の解釈可能性を実現します。

要約(オリジナル)

The interpretability of neural networks has recently received extensive attention. The previous prototype-based explainable networks involved prototype activation in both the reasoning process and interpretation process, which requires specific explainable structures for the prototype. This makes the network less accurate as it gains interpretability. To avoid this problem, we propose a new model: decoupling prototypical network (DProtoNet), which contains three modules. 1) encoder module: we propose unrestricted masks to generate expressive features and prototypes. 2) inference module: we propose a multi-image prototype learning method to update prototypes so that the network can learn generalized prototypes. 3) interpretation module: we propose multiple dynamic masks (MDM) decoder to explain the network, which generates heatmaps using the consistent activation of the original image and mask image at the detection nodes of the network. It decouples the inference module and interpretation module of a prototype-based network by avoiding the use of prototype activation to explain the network’s decisions, so that the accuracy and interpretability of the network can be simultaneously improved. We test on multiple public general and medical datasets. The accuracy of our method is improved compared with the previous methods, which can be improved by up to 5%. DProtoNet achieves state-of-the-art interpretability.

arxiv情報

著者 Yitao Peng,Yihang Liu,Longzhen Yang,Lianghua He
発行日 2022-11-01 10:01:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク