Counterfactual Graph Transformer for Traffic Flow Prediction

要約

交通流予測 (TFP) は、潜在的な渋滞予測のために交通流の潜在的な時空間依存性をモデル化するため、高度道路交通システム (ITS) の基本的な問題です。
複数の種類のアテンション メカニズムを備えた最近のグラフベースのモデルは、有望なパフォーマンスを実現しています。
ただし、交通流予測の既存の方法は、データセットからバイアス パターンを継承する傾向があり、解釈可能性に欠けています。
この目的を達成するために、TFP 用に特別に設計されたインスタンスレベルの説明機能 (重要なサブグラフの検索など) を備えた Counterfactual Graph Transformer (CGT) モデルを提案します。
空間的および時間的な反事実の説明を得るために、時間次元での入力センサー特徴とグラフ変換モジュール上のグラフ構造に対して摂動マスク生成器を設計します。
入力データの特徴とグラフ構造で最適な摂動マスクを検索することにより、後続の TFP タスク用の簡潔で支配的なデータまたはグラフ エッジ リンクを取得できます。
反事実摂動後に利用されたグラフ トランスフォーマー モデルを再トレーニングした後、改善された解釈可能な交通流予測を取得できます。
3 つの実際の公開データセットに関する広範な結果は、CGT が信頼できる説明を生成でき、交通流予測に有望であることを示しています。

要約(オリジナル)

Traffic flow prediction (TFP) is a fundamental problem of the Intelligent Transportation System (ITS), as it models the latent spatial-temporal dependency of traffic flow for potential congestion prediction. Recent graph-based models with multiple kinds of attention mechanisms have achieved promising performance. However, existing methods for traffic flow prediction tend to inherit the bias pattern from the dataset and lack interpretability. To this end, we propose a Counterfactual Graph Transformer (CGT) model with an instance-level explainer (e.g., finding the important subgraphs) specifically designed for TFP. We design a perturbation mask generator over input sensor features at the time dimension and the graph structure on the graph transformer module to obtain spatial and temporal counterfactual explanations. By searching the optimal perturbation masks on the input data feature and graph structures, we can obtain the concise and dominant data or graph edge links for the subsequent TFP task. After re-training the utilized graph transformer model after counterfactual perturbation, we can obtain improved and interpretable traffic flow prediction. Extensive results on three real-world public datasets show that CGT can produce reliable explanations and is promising for traffic flow prediction.

arxiv情報

著者 Ying Yang,Kai Du,Xingyuan Dai,Jianwu Fang
発行日 2023-08-01 09:12:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク