要約
多様なドメインにわたる時系列予測の基礎モデルの開発は、近年大きな注目を集めています。
既存の研究は通常、定期的にサンプリングされ、適切に構造化されたデータを前提としており、時系列に欠損値、不均等なシーケンス長、および測定間の不規則な時間間隔が含まれることが多い、より一般化されたシナリオへの適用が制限されています。
多様なドメインをカバーし、変動する規則性を処理するために、より優れた一般化を備え、規則的な時系列と不規則な時系列の両方をネイティブにサポートするユニバーサル時系列予測モデルである FlexTSF を提案します。
FlexTSF は自己回帰的な方法で予測を生成し、データ ドメインの障壁を取り除く正規化戦略である VT-Norm、柔軟に構造化された時系列から表現を学習するパッチング モジュールである IVP Patcher、およびシームレスにデータを取得するためのアテンション メカニズムである LED アテンションという 3 つの新しい設計を組み込んでいます。
これら 2 つを統合し、ドメインと時間の情報を意識して予測を伝達します。
12 個のデータセットの実験では、FlexTSF が、それぞれ規則的および不規則な時系列用に設計された最先端の予測モデルよりも優れたパフォーマンスを発揮することが示されています。
さらに、自己監視型の事前トレーニングの後、FlexTSF は、時系列予測のゼロショット設定と少数ショー設定の両方で優れたパフォーマンスを示します。
要約(オリジナル)
Developing a foundation model for time series forecasting across diverse domains has attracted significant attention in recent years. Existing works typically assume regularly sampled, well-structured data, limiting their applicability to more generalized scenarios where time series often contain missing values, unequal sequence lengths, and irregular time intervals between measurements. To cover diverse domains and handle variable regularities, we propose FlexTSF, a universal time series forecasting model that possesses better generalization and natively support both regular and irregular time series. FlexTSF produces forecasts in an autoregressive manner and incorporates three novel designs: VT-Norm, a normalization strategy to ablate data domain barriers, IVP Patcher, a patching module to learn representations from flexibly structured time series, and LED attention, an attention mechanism to seamlessly integrate these two and propagate forecasts with awareness of domain and time information. Experiments on 12 datasets show that FlexTSF outperforms state-of-the-art forecasting models respectively designed for regular and irregular time series. Furthermore, after self-supervised pre-training, FlexTSF shows exceptional performance in both zero-shot and few-show settings for time series forecasting.
arxiv情報
著者 | Jingge Xiao,Yile Chen,Gao Cong,Wolfgang Nejdl,Simon Gottschalk |
発行日 | 2024-10-30 16:14:09+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google