Rank Supervised Contrastive Learning for Time Series Classification

要約

最近、時系列データを分類し、有望なパフォーマンスを発揮するために、さまざまな対照学習手法が開発されました。
一般的なパラダイムは、適切な拡張を利用して、エンコーダが特徴空間内で類似のデータ ポイントをより近くにマッピングする一方で、異なるデータ ポイントをさらに遠ざけることにより、堅牢で識別可能な表現を生成できるように、実行可能なポジティブ サンプルを構築することです。
その有効性にもかかわらず、陽性サンプルの詳細な相対類似性 (ランクなど) 情報は、特にラベル付けされたサンプルが限られている場合にはほとんど無視されます。
この目的を達成するために、時系列分類を実行するランク教師対照学習 (RankSCL) を紹介します。
従来の対照学習フレームワークとは異なり、RankSCL は、埋め込み空間でターゲットを絞った方法で生データを強化し、特定のフィルタリング ルールを採用して、より有益なサンプルの正と負のペアを選択します。
さらに、新しいランク損失が開発され、陽性サンプルの異なるレベルに異なる重みを割り当て、エンコーダが同じクラスのきめ細かい情報を抽出し、異なるクラス間に明確な境界を生成できるようになります。
128 個の UCR データセットと 30 個の UEA データセットに関する徹底的な実証研究により、提案された RankSCL が既存のベースライン手法と比較して最先端のパフォーマンスを達成できることが実証されています。

要約(オリジナル)

Recently, various contrastive learning techniques have been developed to categorize time series data and exhibit promising performance. A general paradigm is to utilize appropriate augmentations and construct feasible positive samples such that the encoder can yield robust and discriminative representations by mapping similar data points closer together in the feature space while pushing dissimilar data points farther apart. Despite its efficacy, the fine-grained relative similarity (e.g., rank) information of positive samples is largely ignored, especially when labeled samples are limited. To this end, we present Rank Supervised Contrastive Learning (RankSCL) to perform time series classification. Different from conventional contrastive learning frameworks, RankSCL augments raw data in a targeted way in the embedding space and adopts certain filtering rules to select more informative positive and negative pairs of samples. Moreover, a novel rank loss is developed to assign different weights for different levels of positive samples, enable the encoder to extract the fine-grained information of the same class, and produce a clear boundary among different classes. Thoroughly empirical studies on 128 UCR datasets and 30 UEA datasets demonstrate that the proposed RankSCL can achieve state-of-the-art performance compared to existing baseline methods.

arxiv情報

著者 Qianying Ren,Dongsheng Luo,Dongjin Song
発行日 2024-01-31 18:29:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク