MAPPING: Debiasing Graph Neural Networks for Fair Node Classification with Limited Sensitive Information Leakage

要約

グラフ ニューラル ネットワーク (GNN) は、さまざまな Web ベースのアプリケーションで目覚ましい成功を収めているにもかかわらず、歴史的な差別や社会的固定観念を引き継ぎ、さらに悪化させており、オンライン臨床診断や金融信用など、一か八かの分野での展開を決定的に妨げています。
主に i.i.d データに基づいて作成される公平性研究は、非 i.i.d データに簡単に複製することはできません。
サンプル間に位相依存性のあるグラフ構造。
既存の公平なグラフ学習は通常、公平性を達成するためにペアごとの制約を優先しますが、次元の制限を脱却して複数の機密属性に一般化することはできません。
さらに、ほとんどの研究は公平性を強制および調整するための処理内技術に焦点を当てており、下流での誤用を防止し、トレーニングの信頼性を向上させるために、前処理段階でモデルに依存しないバイアス除去 GNN フレームワークを構築することは、まだほとんど検討されていません。
さらに、GNN に関するこれまでの研究では、公平性またはプライバシーのいずれかを個別に強化する傾向がありましたが、それらの相互作用を調査したものはほとんどありませんでした。
この論文では、MAPPING (\underline{M}asking \underline{A}nd \underline{P}runing and Message-\underline{P}assing train\underline{ING}) という名前の新しいモデルに依存しないバイアス軽減フレームワークを提案します。
公平なノード分類では、距離共分散($dCov$)ベースの公平性制約を採用して、任意の次元での特徴とトポロジのバイアスを同時に削減し、それらを敵対的バイアス軽減と組み合わせて、属性推論攻撃のリスクを制限します。
さまざまな GNN バリアントを使用した現実世界のデータセットでの実験により、MAPPING の有効性と柔軟性が実証されました。
私たちの結果は、MAPPING が実用性と公平性の間でより適切なトレードオフを実現し、機密情報の漏洩によるプライバシーのリスクを軽減できることを示しています。

要約(オリジナル)

Despite remarkable success in diverse web-based applications, Graph Neural Networks(GNNs) inherit and further exacerbate historical discrimination and social stereotypes, which critically hinder their deployments in high-stake domains such as online clinical diagnosis, financial crediting, etc. However, current fairness research that primarily craft on i.i.d data, cannot be trivially replicated to non-i.i.d. graph structures with topological dependence among samples. Existing fair graph learning typically favors pairwise constraints to achieve fairness but fails to cast off dimensional limitations and generalize them into multiple sensitive attributes; besides, most studies focus on in-processing techniques to enforce and calibrate fairness, constructing a model-agnostic debiasing GNN framework at the pre-processing stage to prevent downstream misuses and improve training reliability is still largely under-explored. Furthermore, previous work on GNNs tend to enhance either fairness or privacy individually but few probe into their interplays. In this paper, we propose a novel model-agnostic debiasing framework named MAPPING (\underline{M}asking \underline{A}nd \underline{P}runing and Message-\underline{P}assing train\underline{ING}) for fair node classification, in which we adopt the distance covariance($dCov$)-based fairness constraints to simultaneously reduce feature and topology biases in arbitrary dimensions, and combine them with adversarial debiasing to confine the risks of attribute inference attacks. Experiments on real-world datasets with different GNN variants demonstrate the effectiveness and flexibility of MAPPING. Our results show that MAPPING can achieve better trade-offs between utility and fairness, and mitigate privacy risks of sensitive information leakage.

arxiv情報

著者 Ying Song,Balaji Palanisamy
発行日 2024-01-23 14:59:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク