要約
異常検出は重大なエラーや疑わしい動作を特定するために広く使用されていますが、現在の方法には解釈可能性が欠けています。
既存の手法の共通特性と生成モデルの最近の進歩を活用して、異常検出に対する反事実的な説明を導入します。
入力が与えられると、非異常バージョンがどうあるべきかを示す拡散ベースの修復として反事実を生成します。
このアプローチの主な利点は、ドメインに依存しない説明可能性の要求の正式な仕様を可能にし、説明の生成と評価のための統一されたフレームワークを提供できることです。
私たちは、ビジョン (MVTec、VisA) および時系列 (SWaT、WADI、HAI) の異常データセットに対する異常説明フレームワーク AR-Pro の有効性を実証します。
実験に使用されたコードは、https://github.com/xjiae/arpro からアクセスできます。
要約(オリジナル)
Anomaly detection is widely used for identifying critical errors and suspicious behaviors, but current methods lack interpretability. We leverage common properties of existing methods and recent advances in generative models to introduce counterfactual explanations for anomaly detection. Given an input, we generate its counterfactual as a diffusion-based repair that shows what a non-anomalous version should have looked like. A key advantage of this approach is that it enables a domain-independent formal specification of explainability desiderata, offering a unified framework for generating and evaluating explanations. We demonstrate the effectiveness of our anomaly explainability framework, AR-Pro, on vision (MVTec, VisA) and time-series (SWaT, WADI, HAI) anomaly datasets. The code used for the experiments is accessible at: https://github.com/xjiae/arpro.
arxiv情報
著者 | Xiayan Ji,Anton Xue,Eric Wong,Oleg Sokolsky,Insup Lee |
発行日 | 2024-10-31 17:43:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google