要約
特にハイステークスアプリケーションでのニューラルネットワークの増加に伴い、これらのネットワークは2つのプロパティ(i)堅牢性と(ii)安全性を確保するために解釈可能性を必要とします。
3D体積オブジェクト表現を備えた分類器の最近の進歩により、分散除外データの堅牢性が大幅に向上しました。
ただし、これらの3Dを意識した分類器は、解釈可能性の観点から研究されていません。
説明のためのCave -Concept Awareボリューム – 画像分類の解釈可能性と堅牢性を統一する新しい方向性を紹介します。
既存の3D認識分類器を、分類のために体積表現から抽出した概念を拡張することにより、本質的に解釈可能で堅牢な分類器を設計します。
解釈可能性のための定量的メトリックの配列では、説明可能なAI文献全体のさまざまな概念ベースのアプローチと比較し、洞窟が画像間で一貫して使用され、優れた堅牢性を達成しながら、根拠のある概念を発見したことを示しています。
要約(オリジナル)
With the rise of neural networks, especially in high-stakes applications, these networks need two properties (i) robustness and (ii) interpretability to ensure their safety. Recent advances in classifiers with 3D volumetric object representations have demonstrated a greatly enhanced robustness in out-of-distribution data. However, these 3D-aware classifiers have not been studied from the perspective of interpretability. We introduce CAVE – Concept Aware Volumes for Explanations – a new direction that unifies interpretability and robustness in image classification. We design an inherently-interpretable and robust classifier by extending existing 3D-aware classifiers with concepts extracted from their volumetric representations for classification. In an array of quantitative metrics for interpretability, we compare against different concept-based approaches across the explainable AI literature and show that CAVE discovers well-grounded concepts that are used consistently across images, while achieving superior robustness.
arxiv情報
著者 | Nhi Pham,Bernt Schiele,Adam Kortylewski,Jonas Fischer |
発行日 | 2025-03-17 17:55:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google