Enhancing Fairness in Unsupervised Graph Anomaly Detection through Disentanglement

要約

グラフ異常検知(GAD)は、金融詐欺の検知からフェイクニュースの検知に至るまで、様々なアプリケーションにおいてますます重要性を増している。しかし、現在のGAD手法は、センシティブな属性(例えば、性別、宗教、民族性など)で定義された特定の人口統計学的グループに偏った差別的な決定をもたらす可能性のある公平性の問題をほとんど見落としている。このことは、社会的・倫理的制約に照らして、実世界のシナリオにおけるこれらの手法の適用性を大きく制限する。この重大なギャップに対処するため、我々はGADの意思決定において公平性と効用を統合する初めての試みを行う。具体的には、DEFENDと名付けられた、帰属グラフ上の新しいDisEntangleベースのFairnEss-aware aNomaly Detectionフレームワークを考案する。DEFENDはまず、GNNに異分離を導入することで、有益でありながら敏感な関連性のないノード表現を捕捉し、グラフ表現学習に内在する社会的バイアスを効果的に低減する。さらに、異常ノードを評価する際の差別的バイアスを緩和するために、DEFENDは再構築ベースの異常検出を採用し、グラフ構造を取り入れることなくノードの属性のみに集中する。さらに、入力属性とセンシティブ属性の間の固有の関連性を考慮し、DEFENDは再構成誤差と予測されたセンシティブ属性との間の相関を制約する。実世界のデータセットを用いた我々の実証評価により、DEFENDはGADにおいて効果的に動作し、最先端のベースラインと比較して公平性を大幅に向上させることが明らかになった。再現性を促進するために、我々のコードはhttps://github.com/AhaChang/DEFEND。

要約(オリジナル)

Graph anomaly detection (GAD) is increasingly crucial in various applications, ranging from financial fraud detection to fake news detection. However, current GAD methods largely overlook the fairness problem, which might result in discriminatory decisions skewed toward certain demographic groups defined on sensitive attributes (e.g., gender, religion, ethnicity, etc.). This greatly limits the applicability of these methods in real-world scenarios in light of societal and ethical restrictions. To address this critical gap, we make the first attempt to integrate fairness with utility in GAD decision-making. Specifically, we devise a novel DisEntangle-based FairnEss-aware aNomaly Detection framework on the attributed graph, named DEFEND. DEFEND first introduces disentanglement in GNNs to capture informative yet sensitive-irrelevant node representations, effectively reducing societal bias inherent in graph representation learning. Besides, to alleviate discriminatory bias in evaluating anomalous nodes, DEFEND adopts a reconstruction-based anomaly detection, which concentrates solely on node attributes without incorporating any graph structure. Additionally, given the inherent association between input and sensitive attributes, DEFEND constrains the correlation between the reconstruction error and the predicted sensitive attributes. Our empirical evaluations on real-world datasets reveal that DEFEND performs effectively in GAD and significantly enhances fairness compared to state-of-the-art baselines. To foster reproducibility, our code is available at https://github.com/AhaChang/DEFEND.

arxiv情報

著者 Wenjing Chang,Kay Liu,Philip S. Yu,Jianjun Yu
発行日 2025-03-03 14:14:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CY, cs.LG, cs.SI パーマリンク