Capturing Temporal Components for Time Series Classification

要約

特にモノのインターネット パラダイムから収集されるデータが豊富であるため、連続データの分析は多くの分野で重要です。
時系列分類、つまり連続データを分類するタスクが注目を集めており、機械学習アプローチが公開ベンチマーク データセットで顕著なパフォーマンスを実証しています。
ただし、進歩は主に、固定 (または理想的な) 時間スケールで生データから表現を学習するためのアーキテクチャの設計にあり、これをより長いシーケンスに一般化できない可能性があります。
この研究では、連続データから抽出された統計的に一貫したコンポーネントでトレーニングされた \textit{合成表現学習} アプローチを導入します。
マルチスケール変化空間に基づいて、連続データを同様の統計的特性を持つチャンクにセグメント化するための教師なしアプローチが提案されています。
シーケンスベースのエンコーダー モデルは、時系列分類のためにこれらの時間コンポーネントから構成表現を学習するためにマルチタスク設定でトレーニングされます。
私たちは、公開されている時系列分類ベンチマークに関する広範な実験を通じて、その有効性を実証しています。
セグメント化されたコンポーネントの一貫性を評価すると、教師なしセグメント化タスクでの競合パフォーマンスがわかります。

要約(オリジナル)

Analyzing sequential data is crucial in many domains, particularly due to the abundance of data collected from the Internet of Things paradigm. Time series classification, the task of categorizing sequential data, has gained prominence, with machine learning approaches demonstrating remarkable performance on public benchmark datasets. However, progress has primarily been in designing architectures for learning representations from raw data at fixed (or ideal) time scales, which can fail to generalize to longer sequences. This work introduces a \textit{compositional representation learning} approach trained on statistically coherent components extracted from sequential data. Based on a multi-scale change space, an unsupervised approach is proposed to segment the sequential data into chunks with similar statistical properties. A sequence-based encoder model is trained in a multi-task setting to learn compositional representations from these temporal components for time series classification. We demonstrate its effectiveness through extensive experiments on publicly available time series classification benchmarks. Evaluating the coherence of segmented components shows its competitive performance on the unsupervised segmentation task.

arxiv情報

著者 Venkata Ragavendra Vavilthota,Ranjith Ramanathan,Sathyanarayanan N. Aakur
発行日 2024-06-20 16:15:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク