Better Batch for Deep Probabilistic Time Series Forecasting

要約

深層確率時系列予測は、非線形近似における優れたパフォーマンスと、意思決定タスクに貴重な不確実性の定量化を提供する機能により、大きな注目を集めています。
しかし、既存のモデルの多くは、エラー プロセスが時間に依存しないと仮定することで問題を単純化しすぎており、その結果、エラー プロセスにおけるシリアル相関が見落とされています。
この制限を克服するために、確率的予測の精度をさらに高めるために誤差の自己相関を組み込んだ革新的なトレーニング方法を提案します。
私たちの方法では、モデルのトレーニング用に $D$ の連続時系列セグメントのコレクションとしてミニバッチを構築し、隣接するタイム ステップ間の誤差相関をエンコードする各ミニバッチにわたる時変共分散行列を明示的に学習します。
学習された共分散行列を使用して、予測精度を向上させ、不確実性の定量化を強化できます。
私たちは 2 つの異なるニューラル予測モデルと複数の公開データセットでメソッドを評価しました。実験結果は、広範囲のデータセットにわたって両方のモデルのパフォーマンスを向上させ、予測精度の顕著な向上をもたらすという提案されたアプローチの有効性を確認しました。

要約(オリジナル)

Deep probabilistic time series forecasting has gained significant attention due to its superior performance in nonlinear approximation and its ability to provide valuable uncertainty quantification for decision-making tasks. However, many existing models oversimplify the problem by assuming that the error process is time-independent, thereby overlooking the serial correlation in the error process. To overcome this limitation, we propose an innovative training method that incorporates error autocorrelation to further enhance the accuracy of probabilistic forecasting. Our method involves constructing a mini-batch as a collection of $D$ consecutive time series segments for model training and explicitly learning a time-varying covariance matrix over each mini-batch that encodes the error correlation among adjacent time steps. The learned covariance matrix can be used to improve prediction accuracy and enhance uncertainty quantification. We evaluate our method on two different neural forecasting models and multiple public datasets, and the experimental results confirm the effectiveness of the proposed approach in enhancing the performance of both models across a wide range of datasets, yielding notable improvements in predictive accuracy.

arxiv情報

著者 Vincent Zhihao Zheng,Seongjin Choi,Lijun Sun
発行日 2024-01-22 16:25:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク