Concept Based Explanations and Class Contrasting

要約

深いニューラルネットワークを説明することは、その大きさと非線形性のために挑戦的です。
このホワイトペーパーでは、個々のクラスの予測を説明したり、2つのクラスを対照するために、概念ベースの説明方法を紹介します。つまり、モデルが1つのクラスを他のクラスよりも予測する理由を説明します。
Imagenet1kでトレーニングされたいくつかの公然と利用可能な分類モデルと、染色された組織サンプルの腫瘍を検出するように訓練されたセグメンテーションモデルでテストします。
定性的テストと定量的テストの両方を実行します。
たとえば、Pytorch Model ZooのRESNET50モデルの場合、モデルがクラス「A」を予測する理由について説明を使用して、モデルがクラス「A」を予測しない6つのデータセット作物を自動的に選択できます。
このモデルは、ケースの71%で新しく結合された画像のクラス「A」を再度予測します(1000クラスのうち710で動作します)。
.ipynbの例を含むコードは、git:https://github.com/rherdt185/concept-based-explanationsとcontrastingで入手できます。

要約(オリジナル)

Explaining deep neural networks is challenging, due to their large size and non-linearity. In this paper, we introduce a concept-based explanation method, in order to explain the prediction for an individual class, as well as contrasting any two classes, i.e. explain why the model predicts one class over the other. We test it on several openly available classification models trained on ImageNet1K, as well as on a segmentation model trained to detect tumor in stained tissue samples. We perform both qualitative and quantitative tests. For example, for a ResNet50 model from pytorch model zoo, we can use the explanation for why the model predicts a class ‘A’ to automatically select six dataset crops where the model does not predict class ‘A’. The model then predicts class ‘A’ again for the newly combined image in 71\% of the cases (works for 710 out of the 1000 classes). The code including an .ipynb example is available on git: https://github.com/rherdt185/concept-based-explanations-and-class-contrasting.

arxiv情報

著者 Rudolf Herdt,Daniel Otero Baguer
発行日 2025-02-05 18:10:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク