Fascinating Supervisory Signals and Where to Find Them: Deep Anomaly Detection with Scale Learning

要約

異常検出は教師なしであるため、深いモデルを強化する鍵となるのは、監視信号を見つけることです。
現在の再構成に基づく生成モデルや変換ベースの対照モデルとは異なり、データラベルとして特性 (スケール) を導入することにより、表形式データに対する新しいデータ駆動型の監視を考案します。
データ インスタンスのさまざまなサブベクトルを表すことにより、スケールを元のサブベクトルの次元と表現の次元の間の関係として定義します。
スケールは、変換された表現に添付されるラベルとして機能するため、ニューラル ネットワークのトレーニングに十分なラベル付きデータが提供されます。
本稿ではさらにスケール学習ベースの異常検出手法を提案する。
スケール分布の調整という学習目標に基づいて、私たちのアプローチは、各データ インスタンスのさまざまな部分空間から変換された表現のランキングを学習します。
このプロキシ タスクを通じて、私たちのアプローチは、データ内の固有の規則性とパターンをモデル化し、データの「正常性」を適切に説明します。
テストインスタンスの異常度は、これらの学習されたパターンに適合するかどうかを測定することによって取得されます。
広範な実験により、私たちのアプローチが最先端の生成/対照異常検出方法に比べて大幅な改善につながることが示されています。

要約(オリジナル)

Due to the unsupervised nature of anomaly detection, the key to fueling deep models is finding supervisory signals. Different from current reconstruction-guided generative models and transformation-based contrastive models, we devise novel data-driven supervision for tabular data by introducing a characteristic — scale — as data labels. By representing varied sub-vectors of data instances, we define scale as the relationship between the dimensionality of original sub-vectors and that of representations. Scales serve as labels attached to transformed representations, thus offering ample labeled data for neural network training. This paper further proposes a scale learning-based anomaly detection method. Supervised by the learning objective of scale distribution alignment, our approach learns the ranking of representations converted from varied subspaces of each data instance. Through this proxy task, our approach models inherent regularities and patterns within data, which well describes data ‘normality’. Abnormal degrees of testing instances are obtained by measuring whether they fit these learned patterns. Extensive experiments show that our approach leads to significant improvement over state-of-the-art generative/contrastive anomaly detection methods.

arxiv情報

著者 Hongzuo Xu,Yijie Wang,Juhui Wei,Songlei Jian,Yizhou Li,Ning Liu
発行日 2023-05-25 14:48:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク