Multivariate Probabilistic Time Series Forecasting with Correlated Errors

要約

誤差間の相関関係のモデル化は、モデルが確率的時系列予測における予測の不確実性をどの程度正確に定量化できるかに密接に関連しています。
最近の多変量モデルは、誤差間の同時相関を説明する点で大幅な進歩を遂げていますが、これらの誤差に対する一般的な仮定は、統計的単純化のために時間的に独立しているというものです。
ただし、誤差は通常、時間的に相関する共変量の除外などのさまざまな要因により実質的な自己相関を示すため、実際の観測ではこの仮定から逸脱することがよくあります。
この研究では、共分散行列の低ランクプラス対角パラメータ化に基づいて、誤差の自己相関を効果的に特徴付けることができる効率的な方法を提案します。
提案された方法は、いくつかの望ましい特性を備えています。複雑さは時系列の数に比例せず、結果として得られる共分散は予測の校正に使用でき、ガウス分布誤差を持つ任意のモデルとシームレスに統合できます。
我々は、GPVar と Transformer という 2 つの異なるニューラル予測モデルを使用して、これらの特性を経験的に実証します。
私たちの実験結果は、複数の実世界のデータセットにおける予測精度と不確実性の定量化の品質を向上させる上での私たちの方法の有効性を確認しています。

要約(オリジナル)

Modeling the correlations among errors is closely associated with how accurately the model can quantify predictive uncertainty in probabilistic time series forecasting. Recent multivariate models have made significant progress in accounting for contemporaneous correlations among errors, while a common assumption on these errors is that they are temporally independent for the sake of statistical simplicity. However, real-world observations often deviate from this assumption, since errors usually exhibit substantial autocorrelation due to various factors such as the exclusion of temporally correlated covariates. In this work, we propose an efficient method, based on a low-rank-plus-diagonal parameterization of the covariance matrix, which can effectively characterize the autocorrelation of errors. The proposed method possesses several desirable properties: the complexity does not scale with the number of time series, the resulting covariance can be used for calibrating predictions, and it can seamlessly integrate with any model with Gaussian-distributed errors. We empirically demonstrate these properties using two distinct neural forecasting models-GPVar and Transformer. Our experimental results confirm the effectiveness of our method in enhancing predictive accuracy and the quality of uncertainty quantification on multiple real-world datasets.

arxiv情報

著者 Vincent Zhihao Zheng,Lijun Sun
発行日 2024-02-07 16:53:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク