Counterfactual Explanations for Deep Learning-Based Traffic Forecasting

要約

深層学習モデルは交通量予測に広く使用されており、最先端の予測精度を実現しています。
ただし、これらのモデルのブラックボックス的な性質により、ユーザーが結果を解釈することが困難になります。
この研究は、Explainable AI アプローチ、反事実的な説明を活用して、ディープ ラーニング ベースのトラフィック予測モデルの説明可能性と使いやすさを向上させることを目的としています。
具体的には、さまざまな入力コンテキスト特徴とそれに対応する予測の間の関係を解明することが目標です。
我々は、交通予測に対する反事実の説明を生成し、提案されたシナリオに基づく反事実の説明を通じて有用な洞察を提供する包括的なフレームワークを提示します。
この研究ではまず、過去の交通データと状況変数に基づいて交通速度を予測する深層学習モデルを実装します。
次に、反事実的な説明を使用して、これらの入力変数の変更が予測結果にどのような影響を与えるかを明らかにし、それによって深層学習モデルの透明性を高めます。
私たちは、さまざまな空間的および時間的条件下での交通速度予測に対するコンテキスト特徴の影響を調査しました。
シナリオ主導の反事実の説明では、2 種類のユーザー定義の制約 (方向制約と重み付け制約) が統合され、反事実の説明の検索が特定の使用事例に合わせて調整されます。
これらのカスタマイズされた説明は、モデルの学習メカニズムを理解しようとする機械学習の実践者や、現実世界のアプリケーションに関する洞察を求める分野の専門家に役立ちます。
この結果は、深層学習モデルによって学習されたトラフィック パターンを明らかにする際の反事実的説明の有効性を示し、一般に時空間予測に使用されるブラックボックス深層学習モデルを解釈する可能性を示しています。

要約(オリジナル)

Deep learning models are widely used in traffic forecasting and have achieved state-of-the-art prediction accuracy. However, the black-box nature of those models makes the results difficult to interpret by users. This study aims to leverage an Explainable AI approach, counterfactual explanations, to enhance the explainability and usability of deep learning-based traffic forecasting models. Specifically, the goal is to elucidate relationships between various input contextual features and their corresponding predictions. We present a comprehensive framework that generates counterfactual explanations for traffic forecasting and provides usable insights through the proposed scenario-driven counterfactual explanations. The study first implements a deep learning model to predict traffic speed based on historical traffic data and contextual variables. Counterfactual explanations are then used to illuminate how alterations in these input variables affect predicted outcomes, thereby enhancing the transparency of the deep learning model. We investigated the impact of contextual features on traffic speed prediction under varying spatial and temporal conditions. The scenario-driven counterfactual explanations integrate two types of user-defined constraints, directional and weighting constraints, to tailor the search for counterfactual explanations to specific use cases. These tailored explanations benefit machine learning practitioners who aim to understand the model’s learning mechanisms and domain experts who seek insights for real-world applications. The results showcase the effectiveness of counterfactual explanations in revealing traffic patterns learned by deep learning models, showing its potential for interpreting black-box deep learning models used for spatiotemporal predictions in general.

arxiv情報

著者 Rushan Wang,Yanan Xin,Yatao Zhang,Fernando Perez-Cruz,Martin Raubal
発行日 2024-05-01 11:26:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク