Fusing Dictionary Learning and Support Vector Machines for Unsupervised Anomaly Detection

要約

この論文では、教師なし異常検出のためのスパース表現技術による 1 クラス サポート ベクター マシン (OC-SVM) の改善について研究します。
辞書学習 (DL) は最近、データの隠れたまばらなパターンを明らかにする一般的な分析手法となっているため、私たちのアプローチはこの洞察を利用して、教師なし検出にパターン検索と次元をより詳細に制御できるようにします。
OC-SVM と DL 残差関数を単一の複合目標に統合し、その後 K-SVD タイプの反復アルゴリズムを通じて解決する新しい異常検出モデルを導入します。
交互 K-SVD 反復の閉じた形式が新しい複合モデルに対して明示的に導出され、実際に実装可能なスキームが議論されます。
標準 DL モデルは、辞書ペア学習 (DPL) コンテキストに適合しており、通常のスパース性制約が自然に排除されています。
最後に、両方の目的をカーネル関数の使用を可能にするより一般的な設定に拡張します。
結果として得られるアルゴリズムの経験的な収束特性が提供され、そのパラメータ化の詳細な分析が実行されると同時に、既存の手法と比較した数値パフォーマンスも実証されます。

要約(オリジナル)

We study in this paper the improvement of one-class support vector machines (OC-SVM) through sparse representation techniques for unsupervised anomaly detection. As Dictionary Learning (DL) became recently a common analysis technique that reveals hidden sparse patterns of data, our approach uses this insight to endow unsupervised detection with more control on pattern finding and dimensions. We introduce a new anomaly detection model that unifies the OC-SVM and DL residual functions into a single composite objective, subsequently solved through K-SVD-type iterative algorithms. A closed-form of the alternating K-SVD iteration is explicitly derived for the new composite model and practical implementable schemes are discussed. The standard DL model is adapted for the Dictionary Pair Learning (DPL) context, where the usual sparsity constraints are naturally eliminated. Finally, we extend both objectives to the more general setting that allows the use of kernel functions. The empirical convergence properties of the resulting algorithms are provided and an in-depth analysis of their parametrization is performed while also demonstrating their numerical performance in comparison with existing methods.

arxiv情報

著者 Paul Irofti,Iulian-Andrei Hîji,Andrei Pătraşcu,Nicolae Cleju
発行日 2024-04-05 12:41:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, cs.NA, math.NA パーマリンク