Unsupervised Representation Learning for Time Series: A Review

要約

教師なし表現学習アプローチは、全てのサンプルにアノテーションを付けることなく、ラベル付けされていないデータから識別可能な特徴表現を学習することを目的としている。教師なし表現学習を可能にすることは、時系列データにとって極めて重要である。なぜなら、時系列データは他のデータモダリティと比較して、その複雑な特性や視覚的手がかりの欠如に起因する独特のアノテーションボトルネックがあるからである。近年、教師なし表現学習技術は様々な領域で急速に進歩している。しかし、時系列に対する教師なし表現学習アプローチの体系的な分析は不足している。このギャップを埋めるために、我々は、急速に発展している既存の時系列に対する教師なし表現学習アプローチに関する包括的な文献レビューを行う。さらに、ULTS(Unsupervised Learning for Time Series)と名付けられた統一的で標準化されたライブラリを開発し、様々なモデルに対する高速な実装と統一的な評価を容易にする。ULTSを用いて、9つの多様な実世界データセット上で、最先端のアプローチ、特に急速に発展している対照学習法を実証的に評価する。さらに、この分野での今後の研究を促進するために、時系列の教師なし表現学習に関する実用的な考察と未解決の研究課題について議論する。

要約(オリジナル)

Unsupervised representation learning approaches aim to learn discriminative feature representations from unlabeled data, without the requirement of annotating every sample. Enabling unsupervised representation learning is extremely crucial for time series data, due to its unique annotation bottleneck caused by its complex characteristics and lack of visual cues compared with other data modalities. In recent years, unsupervised representation learning techniques have advanced rapidly in various domains. However, there is a lack of systematic analysis of unsupervised representation learning approaches for time series. To fill the gap, we conduct a comprehensive literature review of existing rapidly evolving unsupervised representation learning approaches for time series. Moreover, we also develop a unified and standardized library, named ULTS (i.e., Unsupervised Learning for Time Series), to facilitate fast implementations and unified evaluations on various models. With ULTS, we empirically evaluate state-of-the-art approaches, especially the rapidly evolving contrastive learning methods, on 9 diverse real-world datasets. We further discuss practical considerations as well as open research challenges on unsupervised representation learning for time series to facilitate future research in this field.

arxiv情報

著者 Qianwen Meng,Hangwei Qian,Yong Liu,Yonghui Xu,Zhiqi Shen,Lizhen Cui
発行日 2023-08-03 07:28:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク