要約
時系列異常検出(TSAD)では、ラベル付きデータの希少性は、正確なモデルの開発に課題となります。
監視されていないドメイン適応(UDA)は、関連するドメインからのラベル付きデータを活用して、非標識ターゲットドメインの異常を検出することにより、ソリューションを提供します。
ただし、既存のUDAメソッドは、ドメイン全体で一貫した異常なクラスを想定しています。
この制限に対処するために、UDAと対照的な学習を組み合わせて、多変量時系列(DACAD)における異常検出のための新しいドメイン適応コントラスト学習モデルを提案します。
DACADは、目に見えない異常なクラス全体で一般化を強化し、適応性と堅牢性を向上させる異常注入メカニズムを利用します。
さらに、我々のモデルは、ソースドメインの監視されたコントラスト損失とターゲットドメインの自己監視対照トリプレット損失を採用しており、包括的な特徴表現学習とドメインに不変の特徴抽出を確保します。
最後に、効果的なセンターベースのエントロピー分類器(CEC)は、ソースドメインの通常の境界を正確に学習します。
複数の現実世界のデータセットと合成データセットの広範な評価は、ドメイン間で知識を転送し、TSADの限定されたラベルデータの課題を軽減する際のDACADの優れたパフォーマンスを強調しています。
要約(オリジナル)
In time series anomaly detection (TSAD), the scarcity of labeled data poses a challenge to the development of accurate models. Unsupervised domain adaptation (UDA) offers a solution by leveraging labeled data from a related domain to detect anomalies in an unlabeled target domain. However, existing UDA methods assume consistent anomalous classes across domains. To address this limitation, we propose a novel Domain Adaptation Contrastive learning model for Anomaly Detection in multivariate time series (DACAD), combining UDA with contrastive learning. DACAD utilizes an anomaly injection mechanism that enhances generalization across unseen anomalous classes, improving adaptability and robustness. Additionally, our model employs supervised contrastive loss for the source domain and self-supervised contrastive triplet loss for the target domain, ensuring comprehensive feature representation learning and domain-invariant feature extraction. Finally, an effective Center-based Entropy Classifier (CEC) accurately learns normal boundaries in the source domain. Extensive evaluations on multiple real-world datasets and a synthetic dataset highlight DACAD’s superior performance in transferring knowledge across domains and mitigating the challenge of limited labeled data in TSAD.
arxiv情報
著者 | Zahra Zamanzadeh Darban,Yiyuan Yang,Geoffrey I. Webb,Charu C. Aggarwal,Qingsong Wen,Shirui Pan,Mahsa Salehi |
発行日 | 2025-05-14 13:06:20+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google