Chronos: Learning the Language of Time Series

要約

事前トレーニングされた確率的時系列モデルのためのシンプルかつ効果的なフレームワークである Chronos を紹介します。
Chronos は、スケーリングと量子化を使用して時系列値を固定語彙にトークン化し、クロスエントロピー損失を通じてこれらのトークン化された時系列で既存のトランスフォーマーベースの言語モデル アーキテクチャをトレーニングします。
私たちは、一般化を改善するためにガウス プロセスを介して生成した合成データセットによって補完された、公的に利用可能なデータセットの大規模なコレクション上の T5 ファミリー (2000 万から 7 億 1000 万のパラメーターの範囲) に基づいて Chronos モデルを事前トレーニングしました。
42 のデータセットで構成され、古典的なローカル モデルとディープ ラーニング手法の両方を含む包括的なベンチマークで、Chronos モデルが次のことを示します。(a) トレーニング コーパスの一部であったデータセットでは他の手法よりも大幅に優れたパフォーマンスを示します。
(b) 新しいデータセットに対して、特にトレーニングされたメソッドと比較して、同等の、場合によっては優れたゼロショット パフォーマンスを示します。
私たちの結果は、Chronos モデルがさまざまなドメインの時系列データを活用して、目に見えない予測タスクのゼロショット精度を向上させ、事前トレーニング済みモデルを予測パイプラインを大幅に簡素化する実行可能なツールとして位置づけることができることを示しています。

要約(オリジナル)

We introduce Chronos, a simple yet effective framework for pretrained probabilistic time series models. Chronos tokenizes time series values using scaling and quantization into a fixed vocabulary and trains existing transformer-based language model architectures on these tokenized time series via the cross-entropy loss. We pretrained Chronos models based on the T5 family (ranging from 20M to 710M parameters) on a large collection of publicly available datasets, complemented by a synthetic dataset that we generated via Gaussian processes to improve generalization. In a comprehensive benchmark consisting of 42 datasets, and comprising both classical local models and deep learning methods, we show that Chronos models: (a) significantly outperform other methods on datasets that were part of the training corpus; and (b) have comparable and occasionally superior zero-shot performance on new datasets, relative to methods that were trained specifically on them. Our results demonstrate that Chronos models can leverage time series data from diverse domains to improve zero-shot accuracy on unseen forecasting tasks, positioning pretrained models as a viable tool to greatly simplify forecasting pipelines.

arxiv情報

著者 Abdul Fatir Ansari,Lorenzo Stella,Caner Turkmen,Xiyuan Zhang,Pedro Mercado,Huibin Shen,Oleksandr Shchur,Syama Sundar Rangapuram,Sebastian Pineda Arango,Shubham Kapoor,Jasper Zschiegner,Danielle C. Maddix,Michael W. Mahoney,Kari Torkkola,Andrew Gordon Wilson,Michael Bohlke-Schneider,Yuyang Wang
発行日 2024-03-12 16:53:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク