A Robust Prototype-Based Network with Interpretable RBF Classifier Foundations

要約

プロトタイプベースの分類学習方法は、本質的に解釈可能であることが知られています。
ただし、このパラダイムには、パフォーマンスの低下などの深いモデルと比較して、大きな制限があります。
これにより、プロトタイプパーツモデルとも呼ばれる、いわゆるディーププロトタイプベースのネットワーク(PBN)の開発につながりました。
この作業では、解釈可能性を含むさまざまなプロパティに関して、これらのモデルを分析します。
特に、確率的モデルを使用して解釈可能性を確保し、浅いまたは深いアーキテクチャとして使用できるようにするコンポーネントごとの分類(CBC)アプローチに焦点を当てています。
このモデルには、矛盾する説明を作成するなど、いくつかの欠点があることを示しています。
これらの調査結果に基づいて、これらの問題を解決するCBCの拡張を提案します。
さらに、この拡張には堅牢性の保証があり、堅牢性を最適化する損失を導き出すことを証明します。
さらに、分析は、ほとんどの(深い)PBNが(深い)RBF分類子に関連していることを示しています。これは、堅牢性が浅いRBF分類子に一般化することを意味します。
経験的評価は、私たちの深いPBNが、他のアプローチの解釈可能性の欠点を解決しながら、さまざまなベンチマークで最先端の分類精度をもたらすことを示しています。
さらに、私たちの浅いPBNバリアントは、本質的に解釈可能であり、証明可能な堅牢性の保証を示しながら、他の浅いPBNよりも優れています。

要約(オリジナル)

Prototype-based classification learning methods are known to be inherently interpretable. However, this paradigm suffers from major limitations compared to deep models, such as lower performance. This led to the development of the so-called deep Prototype-Based Networks (PBNs), also known as prototypical parts models. In this work, we analyze these models with respect to different properties, including interpretability. In particular, we focus on the Classification-by-Components (CBC) approach, which uses a probabilistic model to ensure interpretability and can be used as a shallow or deep architecture. We show that this model has several shortcomings, like creating contradicting explanations. Based on these findings, we propose an extension of CBC that solves these issues. Moreover, we prove that this extension has robustness guarantees and derive a loss that optimizes robustness. Additionally, our analysis shows that most (deep) PBNs are related to (deep) RBF classifiers, which implies that our robustness guarantees generalize to shallow RBF classifiers. The empirical evaluation demonstrates that our deep PBN yields state-of-the-art classification accuracy on different benchmarks while resolving the interpretability shortcomings of other approaches. Further, our shallow PBN variant outperforms other shallow PBNs while being inherently interpretable and exhibiting provable robustness guarantees.

arxiv情報

著者 Sascha Saralajew,Ashish Rana,Thomas Villmann,Ammar Shaker
発行日 2025-01-29 11:46:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク