MPR-Net:Multi-Scale Pattern Reproduction Guided Universality Time Series Interpretable Forecasting

要約

時系列予測は、その幅広い用途と固有の課題により、既存の研究から幅広い関心を集めています。
研究の課題は、過去の系列から効果的なパターンを特定し、それを将来の予測に適用することにあります。
点単位で接続された MLP および Transformer アーキテクチャに基づく高度なモデルは、強力なフィッティング能力を備えていますが、二次的な計算の複雑さによって実用性が制限されます。
さらに、これらの構造は本質的に時間的順序を乱すため、情報の利用が減少し、予測プロセスが解釈できなくなります。
これらの問題を解決するために、本論文では予測モデルMPR-Netを提案する。
まず、畳み込み演算を使用してマルチスケールの履歴系列パターンを適応的に分解し、次にパターン再現の事前知識に基づいてパターン拡張予測方法を構築し、最後にデコンボリューション演算を使用して将来のパターンを将来の系列に再構成します。
MPR-Net は、時系列に存在する時間的依存関係を活用することで、線形時間計算量を実現するだけでなく、予測プロセスを解釈可能にします。
MPR-Net は、短期および長期予測タスクの 10 を超える実際のデータ セットに対して十分な実験を実行することにより、最先端の予測パフォーマンスと優れた一般化およびロバストネス パフォーマンスを実現します。

要約(オリジナル)

Time series forecasting has received wide interest from existing research due to its broad applications and inherent challenging. The research challenge lies in identifying effective patterns in historical series and applying them to future forecasting. Advanced models based on point-wise connected MLP and Transformer architectures have strong fitting power, but their secondary computational complexity limits practicality. Additionally, those structures inherently disrupt the temporal order, reducing the information utilization and making the forecasting process uninterpretable. To solve these problems, this paper proposes a forecasting model, MPR-Net. It first adaptively decomposes multi-scale historical series patterns using convolution operation, then constructs a pattern extension forecasting method based on the prior knowledge of pattern reproduction, and finally reconstructs future patterns into future series using deconvolution operation. By leveraging the temporal dependencies present in the time series, MPR-Net not only achieves linear time complexity, but also makes the forecasting process interpretable. By carrying out sufficient experiments on more than ten real data sets of both short and long term forecasting tasks, MPR-Net achieves the state of the art forecasting performance, as well as good generalization and robustness performance.

arxiv情報

著者 Tianlong Zhao,Xiang Ma,Xuemei Li,Caiming Zhang
発行日 2023-07-13 13:16:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク