Better Batch for Deep Probabilistic Time Series Forecasting

要約

深層確率時系列予測は、非線形近似における優れたパフォーマンスと、意思決定に貴重な不確実性の定量化を提供する機能で注目を集めています。
しかし、既存のモデルは、時間に依存しないエラープロセスを想定することで問題を単純化しすぎて、シリアル相関を見落としていることがよくあります。
この制限を克服するために、誤差の自己相関を組み込んで確率的予測の精度を高める革新的なトレーニング方法を提案します。
私たちの方法では、モデルのトレーニング用に $D$ の連続時系列セグメントのコレクションとしてミニバッチを構築します。
各ミニバッチにわたる時変共分散行列を明示的に学習し、隣接するタイム ステップ間の誤差相関をエンコードします。
学習された共分散行列を使用して、予測精度を向上させ、不確実性の定量化を強化できます。
2 つの異なるニューラル予測モデルと複数の公開データセットに基づいてメソッドを評価します。
実験結果は、さまざまなデータセットにわたって両方のモデルのパフォーマンスを向上させる提案されたアプローチの有効性を確認し、その結果、予測精度が顕著に向上しました。

要約(オリジナル)

Deep probabilistic time series forecasting has gained attention for its superior performance in nonlinear approximation and its capability to offer valuable uncertainty quantification for decision-making. However, existing models often oversimplify the problem by assuming a time-independent error process, overlooking serial correlation. To overcome this limitation, we propose an innovative training method that incorporates error autocorrelation to enhance probabilistic forecasting accuracy. Our method constructs a mini-batch as a collection of $D$ consecutive time series segments for model training. It explicitly learns a time-varying covariance matrix over each mini-batch, encoding error correlation among adjacent time steps. The learned covariance matrix can be used to improve prediction accuracy and enhance uncertainty quantification. We evaluate our method on two different neural forecasting models and multiple public datasets. Experimental results confirm the effectiveness of the proposed approach in improving the performance of both models across a range of datasets, resulting in notable improvements in predictive accuracy.

arxiv情報

著者 Vincent Zhihao Zheng,Seongjin Choi,Lijun Sun
発行日 2024-02-06 16:49:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク