要約
我々は、時系列トークン化に焦点を当てた時系列予測のための変換器アーキテクチャを提案し、それを価格設定領域における実際の予測問題に適用する。本アーキテクチャは、利用可能な全てのデータに対して、多くのスケールで効果的な表現を同時に学習することを目的としている。このモデルには、複数の解像度を用いる時系列パッチングの差別化された形式、時変する既知の変数のための多重解像度モジュール、クロス系列情報を捕捉するためのミキサーベースのモジュール、トークン数の増加を考慮した有利なスケーリングを持つ新しい出力ヘッドなど、多くの新しいモジュールが含まれている。超大手小売店のマークダウンチームが直面する現実世界の予測問題へのこのモデルの応用を紹介する。実施された実験において、我々のモデルは社内モデルや、選択された既存のディープラーニングアーキテクチャを凌駕した。
要約(オリジナル)
We propose a transformer architecture for time series forecasting with a focus on time series tokenisation and apply it to a real-world prediction problem from the pricing domain. Our architecture aims to learn effective representations at many scales across all available data simultaneously. The model contains a number of novel modules: a differentiated form of time series patching which employs multiple resolutions, a multiple-resolution module for time-varying known variables, a mixer-based module for capturing cross-series information, and a novel output head with favourable scaling to account for the increased number of tokens. We present an application of this model to a real world prediction problem faced by the markdown team at a very large retailer. On the experiments conducted our model outperforms in-house models and the selected existing deep learning architectures.
arxiv情報
著者 | Egon Peršak,Miguel F. Anjos,Sebastian Lautz,Aleksandar Kolev |
発行日 | 2024-07-03 15:07:16+00:00 |
arxivサイト | arxiv_id(pdf) |