要約
説明可能な人工知能 (XAI) は、機械学習モデルの透明性と解釈可能性に対する需要が高まっているため、最近大きな注目を集めています。
特に、時系列データの XAI は、金融、医療、気候科学においてますます重要になっています。
ただし、XAI 技術によって提供される属性など、説明の品質を評価することは依然として困難です。
このペーパーでは、摂動を使用して時系列モデルから抽出された属性を評価する詳細な分析を提供します。
摂動分析には、入力データを体系的に変更し、XAI メソッドによって生成された属性への影響を評価することが含まれます。
このアプローチをいくつかの最先端の XAI 手法に適用し、3 つの時系列分類データセットでそのパフォーマンスを評価します。
私たちの結果は、摂動分析アプローチがアトリビューションの品質を効果的に評価し、XAI 技術の長所と限界についての洞察を提供できることを示しています。
このようなアプローチは、時系列データに対する XAI 手法の選択をガイドし、たとえば精度よりも戻り時間に焦点を当て、時系列分析のためのより信頼性が高く解釈可能な機械学習モデルの開発を促進します。
要約(オリジナル)
Explainable Artificial Intelligence (XAI) has gained significant attention recently as the demand for transparency and interpretability of machine learning models has increased. In particular, XAI for time series data has become increasingly important in finance, healthcare, and climate science. However, evaluating the quality of explanations, such as attributions provided by XAI techniques, remains challenging. This paper provides an in-depth analysis of using perturbations to evaluate attributions extracted from time series models. A perturbation analysis involves systematically modifying the input data and evaluating the impact on the attributions generated by the XAI method. We apply this approach to several state-of-the-art XAI techniques and evaluate their performance on three time series classification datasets. Our results demonstrate that the perturbation analysis approach can effectively evaluate the quality of attributions and provide insights into the strengths and limitations of XAI techniques. Such an approach can guide the selection of XAI methods for time series data, e.g., focusing on return time rather than precision, and facilitate the development of more reliable and interpretable machine learning models for time series analysis.
arxiv情報
著者 | Udo Schlegel,Daniel A. Keim |
発行日 | 2023-07-11 08:26:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google