要約
事前に訓練された基礎モデル(FMS)は、単変量の時系列予測タスクで例外的なパフォーマンスを示しています。
ただし、機能間の複雑な依存関係の管理や予測の不確実性の定量化など、いくつかの実際的な課題が続いています。
この研究は、アダプターを導入することにより、これらの重要な制限に取り組むことを目的としています。
多変量タスクのための事前に訓練された単変量時系FMSの効果的な使用を促進する機能空間変換。
アダプターは、多変量入力を適切な潜在スペースに投影し、各次元にFMを個別に適用することにより動作します。
表現学習と部分的に確率的なベイジアンニューラルネットワークに関する文献に触発され、さまざまなアダプターと最適化/推論戦略を紹介します。
合成データセットと実際のデータセットの両方で実施された実験は、アダプターの有効性を確認し、ベースライン方法と比較して、予測精度と不確実性の定量化の大幅な強化を示しています。
私たちのフレームワークは、アダプターを多変量コンテキストで時系列FMを活用するためのモジュール式、スケーラブル、および効果的なソリューションとして位置付け、それにより、実際のアプリケーションでの幅広い採用を促進します。
https://github.com/abenechehab/adaptsでコードをリリースします。
要約(オリジナル)
Pre-trained foundation models (FMs) have shown exceptional performance in univariate time series forecasting tasks. However, several practical challenges persist, including managing intricate dependencies among features and quantifying uncertainty in predictions. This study aims to tackle these critical limitations by introducing adapters; feature-space transformations that facilitate the effective use of pre-trained univariate time series FMs for multivariate tasks. Adapters operate by projecting multivariate inputs into a suitable latent space and applying the FM independently to each dimension. Inspired by the literature on representation learning and partially stochastic Bayesian neural networks, we present a range of adapters and optimization/inference strategies. Experiments conducted on both synthetic and real-world datasets confirm the efficacy of adapters, demonstrating substantial enhancements in forecasting accuracy and uncertainty quantification compared to baseline methods. Our framework, AdaPTS, positions adapters as a modular, scalable, and effective solution for leveraging time series FMs in multivariate contexts, thereby promoting their wider adoption in real-world applications. We release the code at https://github.com/abenechehab/AdaPTS.
arxiv情報
著者 | Abdelhakim Benechehab,Vasilii Feofanov,Giuseppe Paolo,Albert Thomas,Maurizio Filippone,Balázs Kégl |
発行日 | 2025-02-14 15:46:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google