Generalized Time Warping Invariant Dictionary Learning for Time Series Classification and Clustering

要約

辞書学習は、時系列データのパターン認識と分類に効果的なツールです。
さまざまな辞書学習手法の中でも、動的タイムワーピング (DTW) は、時間遅延、スケーリング、変換、およびその他の多くの種類の時間的不整合の問題を処理するために一般的に使用されます。
ただし、DTW は時系列データを調整する際の離散的な性質により、オーバーフィッティングや情報損失が発生します。
この問題に対処するために、本論文では一般化されたタイムワーピング不変辞書学習アルゴリズムを提案します。
私たちのアプローチは、連続時間ワーピングを容易にするための連続基底関数の線形結合で構成される一般化されたタイムワーピング演算子を特徴としています。
提案された演算子と辞書学習の統合は最適化問題として定式化され、ワー​​ピング パス、辞書、およびスパース係数を共同で最適化するためにブロック座標降下法が使用されます。
最適化された結果は、分類およびクラスタリング アルゴリズムにフィードされるハイパースペース距離の尺度として使用されます。
辞書学習、分類、クラスタリングの点で提案手法の優位性が、10 セットの公開データセットを通じてさまざまなベンチマーク手法と比較して検証されます。

要約(オリジナル)

Dictionary learning is an effective tool for pattern recognition and classification of time series data. Among various dictionary learning techniques, the dynamic time warping (DTW) is commonly used for dealing with temporal delays, scaling, transformation, and many other kinds of temporal misalignments issues. However, the DTW suffers overfitting or information loss due to its discrete nature in aligning time series data. To address this issue, we propose a generalized time warping invariant dictionary learning algorithm in this paper. Our approach features a generalized time warping operator, which consists of linear combinations of continuous basis functions for facilitating continuous temporal warping. The integration of the proposed operator and the dictionary learning is formulated as an optimization problem, where the block coordinate descent method is employed to jointly optimize warping paths, dictionaries, and sparseness coefficients. The optimized results are then used as hyperspace distance measures to feed classification and clustering algorithms. The superiority of the proposed method in terms of dictionary learning, classification, and clustering is validated through ten sets of public datasets in comparing with various benchmark methods.

arxiv情報

著者 Ruiyu Xu,Chao Wang,Yongxiang Li,Jianguo Wu
発行日 2023-06-30 14:18:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク