Contrastive Shapelet Learning for Unsupervised Multivariate Time Series Representation Learning

要約

多変量時系列の教師なし表現学習(URL)は、アクセスできないラベルを使用することなく、多くの下流タスクに対して一般化可能な表現を学習できるため、最近の研究で大きな期待が持たれている。しかし、既存のアプローチは、時系列データを符号化するために他のドメイン(例:コンピュータビジョン)用に設計されたモデルを採用し、学習目標を設計するために強い仮定に依存しているため、その性能は限定的であることが多い。これらの問題に対処するため、我々は、一般的な対比学習パラダイムを通して時系列に特化したシェイプレットベースの表現を学習することにより、多変量時系列に対する新しいURLフレームワークを提案する。我々の知る限り、これは教師なし汎用表現学習におけるシェイプレットベースの埋め込みを探求した最初の研究である。シェイプレットベースの統一的なエンコーダと、多階調コントラストとマルチスケールアライメントを用いた新しい学習目的は、特に我々の目標を達成するために設計されており、一般化を改善するためにデータ拡張ライブラリを採用している。我々は、数十の実世界データセットを用いて、分類、クラスタリング、異常検知を含む多くの下流タスクにおける表現品質を評価するために、大規模な実験を行った。その結果、URLの競合だけでなく、下流タスクのために特別に設計された技術に対しても、本手法が優れていることが実証された。我々のコードは、https://github.com/real2fish/CSL で公開されています。

要約(オリジナル)

Recent studies have shown great promise in unsupervised representation learning (URL) for multivariate time series, because URL has the capability in learning generalizable representation for many downstream tasks without using inaccessible labels. However, existing approaches usually adopt the models originally designed for other domains (e.g., computer vision) to encode the time series data and rely on strong assumptions to design learning objectives, which limits their ability to perform well. To deal with these problems, we propose a novel URL framework for multivariate time series by learning time-series-specific shapelet-based representation through a popular contrasting learning paradigm. To the best of our knowledge, this is the first work that explores the shapelet-based embedding in the unsupervised general-purpose representation learning. A unified shapelet-based encoder and a novel learning objective with multi-grained contrasting and multi-scale alignment are particularly designed to achieve our goal, and a data augmentation library is employed to improve the generalization. We conduct extensive experiments using tens of real-world datasets to assess the representation quality on many downstream tasks, including classification, clustering, and anomaly detection. The results demonstrate the superiority of our method against not only URL competitors, but also techniques specially designed for downstream tasks. Our code has been made publicly available at https://github.com/real2fish/CSL.

arxiv情報

著者 Zhiyu Liang,Jianfeng Zhang,Chen Liang,Hongzhi Wang,Zheng Liang,Lujia Pan
発行日 2023-06-02 04:23:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.LG パーマリンク