要約
深層学習ベースの手法は、画像の異常検出において画期的な進歩を遂げましたが、その複雑さにより、インスタンスがなぜ異常であると予測されるのかを理解するのに大きな課題が生じています。
異常性の多様な概念を捉え、異常ごとに複数の反事実例を生成する新しい説明方法を導入します。
反事実の例は、異常検出器によって正常であると認識される異常の変更です。
このメソッドは、異常検出器をトリガーしたメカニズムの高レベルの意味論的な説明を提供し、ユーザーが「what-if シナリオ」を検討できるようにします。
さまざまな画像データセットにわたる定性的および定量的分析により、最先端の異常検出器に適用された方法が検出器の高品質な意味論的説明を達成できることが示されています。
要約(オリジナル)
Deep learning-based methods have achieved a breakthrough in image anomaly detection, but their complexity introduces a considerable challenge to understanding why an instance is predicted to be anomalous. We introduce a novel explanation method that generates multiple counterfactual examples for each anomaly, capturing diverse concepts of anomalousness. A counterfactual example is a modification of the anomaly that is perceived as normal by the anomaly detector. The method provides a high-level semantic explanation of the mechanism that triggered the anomaly detector, allowing users to explore ‘what-if scenarios.’ Qualitative and quantitative analyses across various image datasets show that the method applied to state-of-the-art anomaly detectors can achieve high-quality semantic explanations of detectors.
arxiv情報
著者 | Philipp Liznerski,Saurabh Varshneya,Ece Calikus,Sophie Fellenz,Marius Kloft |
発行日 | 2024-02-22 11:56:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google