Deep Contrastive One-Class Time Series Anomaly Detection

要約

【タイトル】ディープコントラスティブワンクラスタイムシリーズ異常検知

【要約】
– 時系列データの蓄積とラベルの不足により、時系列異常検知は自己教師ありのディープラーニングタスクとなる。
– 一つの正規性に基づく方法は、全体の正規性の一部しか示さず、多数の異常が含まれるタスクには不適切。
– Contrastive Learning (CL) に基づく既存の異常検知方法は、多くが正常サンプルで構成される負のペアの距離を推定するため、性能が低くなる。
– より多様な正規性に基づく既存の異常検知方法は、通常2段階で行い、ADと目標が異なるタスクを最初に事前学習する必要があり、性能が制限される。
– これらの制限を克服するため、著者らはCLとワンクラス分類の正規性仮説に従って、タイムシリーズのディープコントラスティブワンクラス異常検出方法(COCA)を提案。
– COCAは、元の表現と再構成された表現を負のサンプルフリーCLのポジティブペアである「シーケンスコントラスト」として処理する。
– さらに、不変量項と分散量項が対象となるコントラスティブワンクラス損失関数を構成し、損失の仮定を不変量項で同時に最適化し、分散量項で「超球体崩壊」を防止する。
– 2つの実世界の時系列データセットに対する広範な実験により、提案手法の優れた性能が示され、最先端の性能を達成している。

要約(オリジナル)

The accumulation of time-series data and the absence of labels make time-series Anomaly Detection (AD) a self-supervised deep learning task. Single-normality-assumption-based methods, which reveal only a certain aspect of the whole normality, are incapable of tasks involved with a large number of anomalies. Specifically, Contrastive Learning (CL) methods distance negative pairs, many of which consist of both normal samples, thus reducing the AD performance. Existing multi-normality-assumption-based methods are usually two-staged, firstly pre-training through certain tasks whose target may differ from AD, limiting their performance. To overcome the shortcomings, a deep Contrastive One-Class Anomaly detection method of time series (COCA) is proposed by authors, following the normality assumptions of CL and one-class classification. It treats the original and reconstructed representations as the positive pair of negative-sample-free CL, namely ‘sequence contrast’. Next, invariance terms and variance terms compose a contrastive one-class loss function in which the loss of the assumptions is optimized by invariance terms simultaneously and the ‘hypersphere collapse’ is prevented by variance terms. In addition, extensive experiments on two real-world time-series datasets show the superior performance of the proposed method achieves state-of-the-art.

arxiv情報

著者 Rui Wang,Chongwei Liu,Xudong Mou,Kai Gao,Xiaohui Guo,Pin Liu,Tianyu Wo,Xudong Liu
発行日 2023-04-16 08:57:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク