Self-Interpretable Time Series Prediction with Counterfactual Explanations

要約

解釈可能な時系列予測は、医療や自動運転などの安全性が重要な分野にとって非常に重要です。
既存の手法のほとんどは、時系列のセグメントに重要なスコアを割り当てることで予測を解釈することに重点を置いています。
この論文では、これとは異なる、より挑戦的なルートをとり、時系列予測に対する反事実的で実用的な説明を生成する、反事実時系列 (CounTS) と呼ばれる自己解釈可能なモデルの開発を目指しています。
具体的には、時系列反事実説明問題を形式化し、関連する評価プロトコルを確立し、時系列アブダクション、アクション、予測の反事実推論機能を備えた変分ベイジアン深層学習モデルを提案します。
最先端のベースラインと比較して、当社の自己解釈可能なモデルは、同等の予測精度を維持しながら、より優れた反事実の説明を生成できます。

要約(オリジナル)

Interpretable time series prediction is crucial for safety-critical areas such as healthcare and autonomous driving. Most existing methods focus on interpreting predictions by assigning important scores to segments of time series. In this paper, we take a different and more challenging route and aim at developing a self-interpretable model, dubbed Counterfactual Time Series (CounTS), which generates counterfactual and actionable explanations for time series predictions. Specifically, we formalize the problem of time series counterfactual explanations, establish associated evaluation protocols, and propose a variational Bayesian deep learning model equipped with counterfactual inference capability of time series abduction, action, and prediction. Compared with state-of-the-art baselines, our self-interpretable model can generate better counterfactual explanations while maintaining comparable prediction accuracy.

arxiv情報

著者 Jingquan Yan,Hao Wang
発行日 2023-06-09 16:42:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク