Lag-Llama: Towards Foundation Models for Time Series Forecasting

要約

時系列予測の基礎モデルを構築し、そのスケーリング動作を研究することを目的として、大規模な時系列コレクションでトレーニングされた汎用の単変量確率時系列予測モデルである Lag-Llama に関する進行中の作業をここで紹介します。
データ。
このモデルは、目に見えない「分布外」時系列データセットに対して優れたゼロショット予測機能を示し、教師付きベースラインを上回るパフォーマンスを示します。
滑らかに壊れたべき乗則を使用して、モデルのスケーリング動作を適合および予測します。
オープンソース コードは https://github.com/kashif/pytorch-transformer-ts で入手できます。

要約(オリジナル)

Aiming to build foundation models for time-series forecasting and study their scaling behavior, we present here our work-in-progress on Lag-Llama, a general-purpose univariate probabilistic time-series forecasting model trained on a large collection of time-series data. The model shows good zero-shot prediction capabilities on unseen ‘out-of-distribution’ time-series datasets, outperforming supervised baselines. We use smoothly broken power-laws to fit and predict model scaling behavior. The open source code is made available at https://github.com/kashif/pytorch-transformer-ts.

arxiv情報

著者 Kashif Rasul,Arjun Ashok,Andrew Robert Williams,Arian Khorasani,George Adamopoulos,Rishika Bhagwatkar,Marin Biloš,Hena Ghonia,Nadhir Vincent Hassen,Anderson Schneider,Sahil Garg,Alexandre Drouin,Nicolas Chapados,Yuriy Nevmyvaka,Irina Rish
発行日 2023-11-20 14:54:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク