Proactive Model Adaptation Against Concept Drift for Online Time Series Forecasting

要約

時系列予測は常に、データ分布が時間とともに進化し、予測モデルのパフォーマンスの低下につながる概念ドリフトの課題に直面しています。
既存のソリューションは、最近のトレーニングサンプルとして最近の時系列観測を継続的に整理し、最近のデータに関する予測フィードバックに従ってモデルパラメーターを更新するオンライン学習に基づいています。
ただし、重要な問題を見落としています。各サンプルの根本的な将来の値を取得することは、予測期間の後まで遅延する必要があります。
この遅延は、トレーニングサンプルとテストサンプルの間に時間的なギャップを作成します。
私たちの経験的分析は、ギャップが概念ドリフトを導入し、予測モデルが時代遅れの概念に適応することができることを明らかにしています。
このペーパーでは、オンライン時系列予測のための新しい予防的なモデル適応フレームワークを続行します。
最初に、最近使用されたトレーニングサンプルと現在のテストサンプルの間の概念ドリフトを推定します。
次に、適応ジェネレーターを使用して、推定ドリフトをパラメーター調整に効率的に変換し、モデルをテストサンプルに積極的に適応させます。
フレームワークの一般化能力を強化するために、合成される多様な概念ドリフトで続行されます。
さまざまな予測モデルにわたる5つの実際のデータセットに関する広範な実験は、進行が最先端のオンライン学習方法よりもパフォーマンスの改善をもたらし、概念ドリフトに対する予測モデルの回復力を大幅に促進することを示しています。
コードはhttps://github.com/sjtu-dmtai/onlinetsfで入手できます。

要約(オリジナル)

Time series forecasting always faces the challenge of concept drift, where data distributions evolve over time, leading to a decline in forecast model performance. Existing solutions are based on online learning, which continually organize recent time series observations as new training samples and update model parameters according to the forecasting feedback on recent data. However, they overlook a critical issue: obtaining ground-truth future values of each sample should be delayed until after the forecast horizon. This delay creates a temporal gap between the training samples and the test sample. Our empirical analysis reveals that the gap can introduce concept drift, causing forecast models to adapt to outdated concepts. In this paper, we present Proceed, a novel proactive model adaptation framework for online time series forecasting. Proceed first estimates the concept drift between the recently used training samples and the current test sample. It then employs an adaptation generator to efficiently translate the estimated drift into parameter adjustments, proactively adapting the model to the test sample. To enhance the generalization capability of the framework, Proceed is trained on synthetic diverse concept drifts. Extensive experiments on five real-world datasets across various forecast models demonstrate that Proceed brings more performance improvements than the state-of-the-art online learning methods, significantly facilitating forecast models’ resilience against concept drifts. Code is available at https://github.com/SJTU-DMTai/OnlineTSF.

arxiv情報

著者 Lifan Zhao,Yanyan Shen
発行日 2025-02-07 13:54:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE, cs.LG, stat.ML パーマリンク