Correlation recurrent units: A novel neural architecture for improving the predictive performance of time-series data

要約

時系列予測 (TSF) 問題は、人工知能の分野における伝統的な問題です。
リカレント ニューラル ネットワーク (RNN)、長期短期メモリ (LSTM)、GRU (ゲート リカレント ユニット) などのモデルは、TSF の予測精度の向上に貢献してきました。
さらに、予測精度の向上を保証するために、Loess (STL) を使用した季節傾向分解などの時系列分解手法を組み合わせたモデル構造が提案されています。
ただし、このアプローチはコンポーネントごとに独立したモデルで学習されるため、時系列コンポーネント間の関係を学習することはできません。
本研究では、神経細胞内で時系列分解を行い、各分解成分間の相関関係(自己相関と相関)を学習できる相関リカレントユニット(CRU)と呼ばれる新しいニューラルアーキテクチャを提案します。
提案されたニューラル アーキテクチャは、5 つの単変量時系列データセットと 4 つの多変量時系列データを使用した以前の研究との比較実験を通じて評価されました。
結果は、長期および短期の予測パフォーマンスが 10% 以上改善されたことを示しました。
実験結果は、提案された CRU が他のニューラル アーキテクチャと比較して TSF 問題に対して優れた方法であることを示しています。

要約(オリジナル)

The time-series forecasting (TSF) problem is a traditional problem in the field of artificial intelligence. Models such as Recurrent Neural Network (RNN), Long Short Term Memory (LSTM), and GRU (Gate Recurrent Units) have contributed to improving the predictive accuracy of TSF. Furthermore, model structures have been proposed to combine time-series decomposition methods, such as seasonal-trend decomposition using Loess (STL) to ensure improved predictive accuracy. However, because this approach is learned in an independent model for each component, it cannot learn the relationships between time-series components. In this study, we propose a new neural architecture called a correlation recurrent unit (CRU) that can perform time series decomposition within a neural cell and learn correlations (autocorrelation and correlation) between each decomposition component. The proposed neural architecture was evaluated through comparative experiments with previous studies using five univariate time-series datasets and four multivariate time-series data. The results showed that long- and short-term predictive performance was improved by more than 10%. The experimental results show that the proposed CRU is an excellent method for TSF problems compared to other neural architectures.

arxiv情報

著者 Sunghyun Sim,Dohee Kim,Hyerim Bae
発行日 2024-08-28 15:17:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, eess.SP パーマリンク