要約
タイトル:属性グラフ上の異常検出のための異常判別と表現学習の切り離し:自己教師あり学習アルゴリズムによる異常検出
要約:属性グラフ上の異常検出は、実用上重要な問題であるが、既存の方法は異常判別に主眼を置き、表現学習を無視するため、意味の混合や不均衡なデータ分布の問題が生じることがある。本研究では、新しいアルゴリズム「異常検出のための切り離された自己教師あり学習 (DSLAD)」を提案する。DSLADは、異常判別と表現学習を切り離した自己教師あり方法であり、異常判別器としての双線形プーリングとマスク付きオートエンコーダを採用している。異常判別と表現学習を切り離すことで、より意味的に区別でき、不均衡問題を解決できるバランスのとれた特徴空間が構築される。6つのベンチマークデータセットでの実験結果から、DSLADの有効性が確認された。
要点:
– 属性グラフ上の異常検出は実用上重要
– 既存の方法は異常判別に主眼を置き、表現学習を無視するため、意味の混合や不均衡なデータ分布の問題が生じることがある
– DSLADは自己教師あり方法であり、異常判別と表現学習を切り離したアルゴリズム
– DSLADでは、異常判別器としての双線形プーリングとマスク付きオートエンコーダを採用している
– 異常判別と表現学習を切り離すことで、より意味的に区別でき、不均衡問題を解決できるバランスのとれた特徴空間が構築される
– 6つのベンチマークデータセットでの実験結果から、DSLADの有効性が確認された。
要約(オリジナル)
Anomaly detection on attributed graphs is a crucial topic for its practical application. Existing methods suffer from semantic mixture and imbalance issue because they mainly focus on anomaly discrimination, ignoring representation learning. It conflicts with the assortativity assumption that anomalous nodes commonly connect with normal nodes directly. Additionally, there are far fewer anomalous nodes than normal nodes, indicating a long-tailed data distribution. To address these challenges, a unique algorithm,Decoupled Self-supervised Learning forAnomalyDetection (DSLAD), is proposed in this paper. DSLAD is a self-supervised method with anomaly discrimination and representation learning decoupled for anomaly detection. DSLAD employs bilinear pooling and masked autoencoder as the anomaly discriminators. By decoupling anomaly discrimination and representation learning, a balanced feature space is constructed, in which nodes are more semantically discriminative, as well as imbalance issue can be resolved. Experiments conducted on various six benchmark datasets reveal the effectiveness of DSLAD.
arxiv情報
著者 | YanMing Hu,Chuan Chen,BoWen Deng,YuJing Lai,Hao Lin,ZiBin Zheng,Jing Bian |
発行日 | 2023-04-11 12:23:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI