Caformer: Rethinking Time Series Analysis from Causal Perspective

要約

時系列分析は、さまざまなドメインで幅広い用途に使用される重要なタスクです。
ただし、非定常時系列における次元間および時間間の依存関係を効果的に捉えることは、特に環境要因の文脈において、重大な課題を引き起こします。
環境によって引き起こされる偽の相関は、次元間依存性と時間間依存性の間の因果関係を混乱させます。
この論文では、因果関係の観点から時系列分析を行うための Caformer (\underline{\textbf{Ca}}usal Trans\underline{\textbf{former}}) と呼ばれる新しいフレームワークを紹介します。
具体的には、私たちのフレームワークは、動的学習器、環境学習器、依存関係学習器の 3 つのコンポーネントで構成されています。
動的学習器は次元間の動的な相互作用を明らかにし、環境学習器は環境によって引き起こされる偽の相関をバックドア調整で軽減し、依存関係学習器は時間と次元の両方にわたって堅牢な相互作用を推論することを目的としています。
当社の Caformer は、長期および短期の予測、代入、分類、異常検出を含む 5 つの主流時系列分析タスクにわたって、適切な解釈可能性を備えた一貫した最先端のパフォーマンスを実証します。

要約(オリジナル)

Time series analysis is a vital task with broad applications in various domains. However, effectively capturing cross-dimension and cross-time dependencies in non-stationary time series poses significant challenges, particularly in the context of environmental factors. The spurious correlation induced by the environment confounds the causal relationships between cross-dimension and cross-time dependencies. In this paper, we introduce a novel framework called Caformer (\underline{\textbf{Ca}}usal Trans\underline{\textbf{former}}) for time series analysis from a causal perspective. Specifically, our framework comprises three components: Dynamic Learner, Environment Learner, and Dependency Learner. The Dynamic Learner unveils dynamic interactions among dimensions, the Environment Learner mitigates spurious correlations caused by environment with a back-door adjustment, and the Dependency Learner aims to infer robust interactions across both time and dimensions. Our Caformer demonstrates consistent state-of-the-art performance across five mainstream time series analysis tasks, including long- and short-term forecasting, imputation, classification, and anomaly detection, with proper interpretability.

arxiv情報

著者 Kexuan Zhang,Xiaobei Zou,Yang Tang
発行日 2024-03-13 14:28:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク