Correlated Time Series Self-Supervised Representation Learning via Spatiotemporal Bootstrapping

要約

相関時系列分析は、現実世界の多くの業界で重要な役割を果たしています。
さらに下流のタスクのためにこの大規模データの効率的な表現を学習することは必要ですが、困難です。
この論文では、ブートストラップされた時空間表現予測を介した個々のインスタンスのタイムステップレベルの表現学習フレームワークを提案します。
私たちは、相関時系列予測と、限られたデータを使用して新しいインスタンスに予測モデルをコールドスタート転送する際の表現学習フレームワークの有効性と柔軟性を評価しました。
学習した表現に基づいてトレーニングされた線形回帰モデルは、ほとんどの場合においてモデルが最高のパフォーマンスを発揮することを示しています。
特に表現学習モデルと比較して、PeMS-BAY データセットでは RMSE、MAE、MAPE がそれぞれ 37%、49%、48% 削減されました。
さらに、実際の地下鉄の乗客フロー データでは、当社のフレームワークは、新しいコールド スタート インスタンスの将来の情報を推測するために転送する機能を示しており、15%、19%、18% の増加が見られます。
ソースコードは GitHub https://github.com/bonaldli/Spatiotemporal-TS-Representation-Learning で公開されます。

要約(オリジナル)

Correlated time series analysis plays an important role in many real-world industries. Learning an efficient representation of this large-scale data for further downstream tasks is necessary but challenging. In this paper, we propose a time-step-level representation learning framework for individual instances via bootstrapped spatiotemporal representation prediction. We evaluated the effectiveness and flexibility of our representation learning framework on correlated time series forecasting and cold-start transferring the forecasting model to new instances with limited data. A linear regression model trained on top of the learned representations demonstrates our model performs best in most cases. Especially compared to representation learning models, we reduce the RMSE, MAE, and MAPE by 37%, 49%, and 48% on the PeMS-BAY dataset, respectively. Furthermore, in real-world metro passenger flow data, our framework demonstrates the ability to transfer to infer future information of new cold-start instances, with gains of 15%, 19%, and 18%. The source code will be released under the GitHub https://github.com/bonaldli/Spatiotemporal-TS-Representation-Learning

arxiv情報

著者 Luxuan Wang,Lei Bai,Ziyue Li,Rui Zhao,Fugee Tsung
発行日 2023-06-20 15:29:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク