要約
時系列予測は、さまざまな分野で重要なタスクです。
傾向、季節性、不規則な変動などの要因により、時系列は非定常を示すことがよくあります。
これは、深い層を介した安定した特徴の伝播を妨げ、特徴の分布を混乱させ、学習データの分布の変更を複雑にします。
その結果、多くの既存モデルは基礎となるパターンを捉えるのに苦労し、予測パフォーマンスの低下につながります。
この研究では、U-Mixer と呼ばれる私たちが提案したフレームワークを使用して、時系列予測における非定常性の課題に取り組みます。
Unet と Mixer を組み合わせることで、U-Mixer は、異なるパッチとチャネル間の局所的な時間依存関係を効果的にキャプチャして、チャネル間の分布変動の影響を回避し、低レベルと高レベルの特徴をマージして包括的なデータ表現を取得します。
主な貢献は、新しい定常性補正方法であり、モデル処理の前後のデータ間の定常性の差を制約して非定常性情報を復元すると同時に、時間的依存関係が確実に保持されるようにすることで、データ分布を明示的に復元します。
現実世界のさまざまな時系列データセットに対する広範な実験を通じて、U-Mixer はその有効性と堅牢性を実証し、最先端 (SOTA) 手法と比較して 14.5\% および 7.7\% の改善を達成しました。
要約(オリジナル)
Time series forecasting is a crucial task in various domains. Caused by factors such as trends, seasonality, or irregular fluctuations, time series often exhibits non-stationary. It obstructs stable feature propagation through deep layers, disrupts feature distributions, and complicates learning data distribution changes. As a result, many existing models struggle to capture the underlying patterns, leading to degraded forecasting performance. In this study, we tackle the challenge of non-stationarity in time series forecasting with our proposed framework called U-Mixer. By combining Unet and Mixer, U-Mixer effectively captures local temporal dependencies between different patches and channels separately to avoid the influence of distribution variations among channels, and merge low- and high-levels features to obtain comprehensive data representations. The key contribution is a novel stationarity correction method, explicitly restoring data distribution by constraining the difference in stationarity between the data before and after model processing to restore the non-stationarity information, while ensuring the temporal dependencies are preserved. Through extensive experiments on various real-world time series datasets, U-Mixer demonstrates its effectiveness and robustness, and achieves 14.5\% and 7.7\% improvements over state-of-the-art (SOTA) methods.
arxiv情報
著者 | Xiang Ma,Xuemei Li,Lexin Fang,Tianlong Zhao,Caiming Zhang |
発行日 | 2024-01-04 12:41:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google