Retrieval-Based Reconstruction For Time-series Contrastive Learning

要約

自己教師あり対比学習の成功は、埋め込み空間に一緒に押し込まれたときに後続の下流タスクに有用な情報をエンコードする正のデータ ペアを特定できるかどうかにかかっています。
ただし、時系列では、拡張によって正のペアを作成すると、元の意味論的な意味が壊れる可能性があるため、これは困難です。
あるサブシーケンスから情報を取得して別のサブシーケンスを正常に再構築できれば、それらは正のペアを形成するはずであると仮説を立てます。
この直感を活用して、REtrieval-Based Reconstruction (REBAR) 対照学習という新しいアプローチを導入します。
まず、畳み込みクロスアテンション アーキテクチャを利用して、2 つの異なる時系列間の REBAR 誤差を計算します。
次に、検証実験を通じて、REBAR 誤差が相互クラス メンバーシップの予測因子であることを示し、ポジティブ/ネガティブ ラベラーとしての使用を正当化します。
最後に、当社の REBAR メソッドは、対照的な学習フレームワークに統合されると、さまざまなモダリティにわたる下流タスクで最先端のパフォーマンスを達成する埋め込みを学習できます。

要約(オリジナル)

The success of self-supervised contrastive learning hinges on identifying positive data pairs that, when pushed together in embedding space, encode useful information for subsequent downstream tasks. However, in time-series, this is challenging because creating positive pairs via augmentations may break the original semantic meaning. We hypothesize that if we can retrieve information from one subsequence to successfully reconstruct another subsequence, then they should form a positive pair. Harnessing this intuition, we introduce our novel approach: REtrieval-BAsed Reconstruction (REBAR) contrastive learning. First, we utilize a convolutional cross-attention architecture to calculate the REBAR error between two different time-series. Then, through validation experiments, we show that the REBAR error is a predictor of mutual class membership, justifying its usage as a positive/negative labeler. Finally, once integrated into a contrastive learning framework, our REBAR method can learn an embedding that achieves state-of-the-art performance on downstream tasks across various modalities.

arxiv情報

著者 Maxwell A. Xu,Alexander Moreno,Hui Wei,Benjamin M. Marlin,James M. Rehg
発行日 2023-12-07 15:20:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク