要約
多変量時系列予測では、Transformer アーキテクチャは 2 つの重要な課題に直面します。それは、履歴シーケンスから特徴を効果的にマイニングすることと、時間依存関係の学習中の過剰適合を回避することです。
これらの課題に取り組むために、このホワイトペーパーでは、クロス変数および時間ネットワーク (CVTN) を導入して、時系列予測を履歴シーケンスと予測シーケンスの学習に分解します。
この独自の手法は、多変量時系列予測を 2 つのフェーズに分割します。1 つは履歴シーケンスから効果的に特徴をマイニングするためのクロス変数学習、もう 1 つは予測シーケンスの時間依存性を捕捉するためのクロスタイム学習です。
これら 2 つのフェーズを分離すると、時間間学習における過学習が変数間学習に及ぼす影響を回避できます。
現実世界のさまざまなデータセットに対する広範な実験により、その最先端 (SOTA) パフォーマンスが確認されました。
CVTN は、時系列予測における 3 つの重要な側面を強調しています。それは、時系列の短期および長期の性質 (局所性と寿命)、履歴シーケンスと予測シーケンスの両方からの特徴マイニング、およびクロス変数学習とクロスタイム学習の統合です。
。
このアプローチは、時系列予測の現状を前進させるだけでなく、この分野の将来の研究のためのより包括的な枠組みを提供します。
要約(オリジナル)
In multivariate time series forecasting, the Transformer architecture encounters two significant challenges: effectively mining features from historical sequences and avoiding overfitting during the learning of temporal dependencies. To tackle these challenges, this paper deconstructs time series forecasting into the learning of historical sequences and prediction sequences, introducing the Cross-Variable and Time Network (CVTN). This unique method divides multivariate time series forecasting into two phases: cross-variable learning for effectively mining fea tures from historical sequences, and cross-time learning to capture the temporal dependencies of prediction sequences. Separating these two phases helps avoid the impact of overfitting in cross-time learning on cross-variable learning. Exten sive experiments on various real-world datasets have confirmed its state-of-the-art (SOTA) performance. CVTN emphasizes three key dimensions in time series fore casting: the short-term and long-term nature of time series (locality and longevity), feature mining from both historical and prediction sequences, and the integration of cross-variable and cross-time learning. This approach not only advances the current state of time series forecasting but also provides a more comprehensive framework for future research in this field.
arxiv情報
著者 | Han Zhou,Yuntian Chen |
発行日 | 2024-04-29 14:16:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google