要約
異常値検出は、様々な分野において極めて重要な分析ツールである。製造業のようなクリティカルなシステムでは、異常値検出の誤動作はコストがかかり、安全上も重要である。したがって、このような環境で不透明なモデルを展開する際には、説明可能な人工知能(XAI)の必要性が高い。本研究では、ドイツの自動車供給産業からの製造時系列データに焦点を当てる。時系列全体を圧縮するためにオートエンコーダを利用し、その潜在特徴に異常検出技術を適用する。外れ値解釈のために、我々は(i)オートエンコーダのエンコーダに広く使われているXAI技術を採用する。さらに、(ii)我々はAEE(Aggregated Explanatory Ensemble)を提案する。AEEは複数のXAI手法の説明を単一の、より表現力豊かな解釈に融合する新しいアプローチである。説明の評価については、(iii)エンコーダの説明の質を定量的に測定する手法を提案する。さらに、領域の専門知識を用いた外れ値説明の有効性を定性的に評価する。
要約(オリジナル)
Outlier detection is a crucial analytical tool in various fields. In critical systems like manufacturing, malfunctioning outlier detection can be costly and safety-critical. Therefore, there is a significant need for explainable artificial intelligence (XAI) when deploying opaque models in such environments. This study focuses on manufacturing time series data from a German automotive supply industry. We utilize autoencoders to compress the entire time series and then apply anomaly detection techniques to its latent features. For outlier interpretation, we (i) adopt widely used XAI techniques to the autoencoder’s encoder. Additionally, (ii) we propose AEE, Aggregated Explanatory Ensemble, a novel approach that fuses explanations of multiple XAI techniques into a single, more expressive interpretation. For evaluation of explanations, (iii) we propose a technique to measure the quality of encoder explanations quantitatively. Furthermore, we qualitatively assess the effectiveness of outlier explanations with domain expertise.
arxiv情報
著者 | Patrick Knab,Sascha Marton,Christian Bartelt,Robert Fuder |
発行日 | 2025-02-03 10:56:36+00:00 |
arxivサイト | arxiv_id(pdf) |