Learning Support and Trivial Prototypes for Interpretable Image Classification

要約

プロトタイプ部分ネットワーク (ProtoPNet) メソッドは、予測を一連のトレーニング プロトタイプに関連付けることによって、解釈可能な分類を実現するように設計されています。これらのプロトタイプは、特徴空間の分類境界から遠く離れた位置に配置されるようにトレーニングされるため、自明なプロトタイプと呼ばれます。
両方の方法による分類が一連のトレーニング ポイント (つまり、ProtoPNet の自明なプロトタイプと SVM のサポート ベクター) との類似性の計算に依存していることを考慮すると、ProtoPNet とサポート ベクター マシン (SVM) を類推することが可能であることに注意してください。
ただし、自明なプロトタイプは分類境界から遠くに位置する一方、サポート ベクトルはこの境界の近くに位置し、確立された SVM 理論とのこの矛盾により、ProtoPNet モデルの分類精度が劣る可能性があると我々は主張します。
この論文では、SVM 理論によって示唆されているように、特徴空間内の分類境界近くにあるサポート プロトタイプを学習する新しい方法を使用して、ProtoPNet の分類を改善することを目的としています。
さらに、ST-ProtoPNet という新しいモデルを使用して分類結果の改善を目指しています。このモデルは、サポート プロトタイプと自明なプロトタイプを活用して、より効果的な分類を提供します。
CUB-200-2011、Stanford Cars、および Stanford Dogs データセットの実験結果は、ST-ProtoPNet が最先端の分類精度と解釈可能性の結果を達成していることを示しています。
また、提案されたサポート プロトタイプは、背景領域ではなく対象オブジェクト内でより適切に位置特定される傾向があることも示します。

要約(オリジナル)

Prototypical part network (ProtoPNet) methods have been designed to achieve interpretable classification by associating predictions with a set of training prototypes, which we refer to as trivial prototypes because they are trained to lie far from the classification boundary in the feature space. Note that it is possible to make an analogy between ProtoPNet and support vector machine (SVM) given that the classification from both methods relies on computing similarity with a set of training points (i.e., trivial prototypes in ProtoPNet, and support vectors in SVM). However, while trivial prototypes are located far from the classification boundary, support vectors are located close to this boundary, and we argue that this discrepancy with the well-established SVM theory can result in ProtoPNet models with inferior classification accuracy. In this paper, we aim to improve the classification of ProtoPNet with a new method to learn support prototypes that lie near the classification boundary in the feature space, as suggested by the SVM theory. In addition, we target the improvement of classification results with a new model, named ST-ProtoPNet, which exploits our support prototypes and the trivial prototypes to provide more effective classification. Experimental results on CUB-200-2011, Stanford Cars, and Stanford Dogs datasets demonstrate that ST-ProtoPNet achieves state-of-the-art classification accuracy and interpretability results. We also show that the proposed support prototypes tend to be better localised in the object of interest rather than in the background region.

arxiv情報

著者 Chong Wang,Yuyuan Liu,Yuanhong Chen,Fengbei Liu,Yu Tian,Davis J. McCarthy,Helen Frazer,Gustavo Carneiro
発行日 2023-08-21 12:30:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク