要約
時系列予測モデルでは、特定の期間内に突然の変化が発生することがよくありますが、これは通常、予期しないイベントまたは未知のイベントが原因で発生します。
トレーニングセットではそれらの変化がほとんど発生しないにもかかわらず、突然の変化は損失を引き起こし、全体の損失に大きく寄与します。
したがって、これらはノイズの多いトレーニング サンプルとして機能し、モデルが一般化可能なパターン、つまり正常な状態を学習するのを妨げます。
私たちの調査結果に基づいて、突然の変化によって発生する損失を減重し、通常の状態によって発生する損失を増重する再重み付けフレームワークを提案します。
再重み付けフレームワークでは、まず、特定の期間内の変化の急激さの度合いを測定する局所不一致 (LD) と呼ばれる測定値を定義します。
トレーニング セットはほとんどが正常な状態で構成されているため、LD に基づいてトレーニング セット内に時間的変化がどのくらいの頻度で現れるかを検討します。
私たちの再重み付けフレームワークは、アーキテクチャに関係なく、既存の時系列予測モデルに適用できます。
さまざまな入力シーケンス長を持つ 8 つのデータセットにわたる 12 の時系列予測モデルに関する広範な実験を通じて、再重み付けフレームワークを適用すると MSE が平均で 10.1%、最先端では最大 18.6% 削減されることを実証しました。
モデル。
要約(オリジナル)
Time-series forecasting models often encounter abrupt changes in a given period of time which generally occur due to unexpected or unknown events. Despite their scarce occurrences in the training set, abrupt changes incur loss that significantly contributes to the total loss. Therefore, they act as noisy training samples and prevent the model from learning generalizable patterns, namely the normal states. Based on our findings, we propose a reweighting framework that down-weights the losses incurred by abrupt changes and up-weights those by normal states. For the reweighting framework, we first define a measurement termed Local Discrepancy (LD) which measures the degree of abruptness of a change in a given period of time. Since a training set is mostly composed of normal states, we then consider how frequently the temporal changes appear in the training set based on LD. Our reweighting framework is applicable to existing time-series forecasting models regardless of the architectures. Through extensive experiments on 12 time-series forecasting models over eight datasets with various in-output sequence lengths, we demonstrate that applying our reweighting framework reduces MSE by 10.1% on average and by up to 18.6% in the state-of-the-art model.
arxiv情報
著者 | Junwoo Park,Jungsoo Lee,Youngin Cho,Woncheol Shin,Dongmin Kim,Jaegul Choo,Edward Choi |
発行日 | 2023-09-22 14:21:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google