要約
我々は、長期シーケンスの時系列を神経的に確率的に予測するための新しい方法である SutraNets を提案します。
SutraNet は、自己回帰生成モデルを使用して、長いシーケンスの尤度を条件付き確率の積に因数分解します。
長いシーケンスを生成する場合、ほとんどの自己回帰アプローチでは、有害なエラーが蓄積されるだけでなく、長距離の依存関係をモデル化する際の課題も発生します。
SutraNet は、長い単変量予測を、低周波数のサブシリーズに対する多変量予測として扱います。
自己回帰は、一貫した多変量 (したがって、高頻度の単変量) 出力を保証するために、時間全体およびサブシリーズ全体にわたって進行します。
サブシリーズはより少ないステップで生成できるため、SutraNet はエラーの蓄積と信号経路の距離を効果的に削減します。
私たちは、サブシリーズの数を変更し、基礎となるシーケンス モデルの深さと幅をスケールアップした場合を含め、6 つの現実世界のデータセットにおいて、SutraNets が競合する代替手段よりも予測精度を大幅に向上させることを発見しました。
要約(オリジナル)
We propose SutraNets, a novel method for neural probabilistic forecasting of long-sequence time series. SutraNets use an autoregressive generative model to factorize the likelihood of long sequences into products of conditional probabilities. When generating long sequences, most autoregressive approaches suffer from harmful error accumulation, as well as challenges in modeling long-distance dependencies. SutraNets treat long, univariate prediction as multivariate prediction over lower-frequency sub-series. Autoregression proceeds across time and across sub-series in order to ensure coherent multivariate (and, hence, high-frequency univariate) outputs. Since sub-series can be generated using fewer steps, SutraNets effectively reduce error accumulation and signal path distances. We find SutraNets to significantly improve forecasting accuracy over competitive alternatives on six real-world datasets, including when we vary the number of sub-series and scale up the depth and width of the underlying sequence models.
arxiv情報
著者 | Shane Bergsma,Timothy Zeyl,Lei Guo |
発行日 | 2023-12-22 18:00:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google