A Multi-Scale Decomposition MLP-Mixer for Time Series Analysis

要約

時系列データは、多くの場合、独自の構成と複雑なマルチスケールの時間的変動によって特徴付けられ、その分析では分解とマルチスケール モデリングについて特別な考慮が必要です。
これに関する既存の深層学習手法は、単変量時系列のみに最適であり、サブシリーズ レベルのモデリングと分解の完全性を十分に考慮していません。
これに対処するために、入力時系列をさまざまなコンポーネントに明示的に分解し、コンポーネントをさまざまなレイヤーで表現することを学習するマルチスケール分解 MLP ミキサーである MSD-Mixer を提案します。
マルチスケールの時間パターンとチャネル間の依存関係を処理するために、時系列をマルチスケールのサブシリーズ、つまりパッチとしてモデル化し、MLP を採用してパッチ内およびパッチ間の変動を混合する新しい時間パッチング アプローチを提案します。
チャネルごとの相関関係。
さらに、分解の完全性のために分解残差の大きさと自己相関の両方を制約する損失関数を提案します。
5 つの一般的な時系列分析タスク (長期および短期の予測、代入、異常検出、分類) に関するさまざまな現実世界のデータセットでの広範な実験を通じて、MSD-Mixer が他の状態と比較して一貫して大幅に優れたパフォーマンスを達成していることを実証しました。
-最先端のタスク一般的アプローチとタスク固有のアプローチ。

要約(オリジナル)

Time series data, often characterized by unique composition and complex multi-scale temporal variations, requires special consideration of decomposition and multi-scale modeling in its analysis. Existing deep learning methods on this best fit to only univariate time series, and have not sufficiently accounted for sub-series level modeling and decomposition completeness. To address this, we propose MSD-Mixer, a Multi-Scale Decomposition MLP-Mixer which learns to explicitly decompose the input time series into different components, and represents the components in different layers. To handle multi-scale temporal patterns and inter-channel dependencies, we propose a novel temporal patching approach to model the time series as multi-scale sub-series, i.e., patches, and employ MLPs to mix intra- and inter-patch variations and channel-wise correlations. In addition, we propose a loss function to constrain both the magnitude and autocorrelation of the decomposition residual for decomposition completeness. Through extensive experiments on various real-world datasets for five common time series analysis tasks (long- and short-term forecasting, imputation, anomaly detection, and classification), we demonstrate that MSD-Mixer consistently achieves significantly better performance in comparison with other state-of-the-art task-general and task-specific approaches.

arxiv情報

著者 Shuhan Zhong,Sizhe Song,Guanyao Li,Weipeng Zhuo,Yang Liu,S. -H. Gary Chan
発行日 2023-10-18 13:39:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク