要約
グラフ ニューラル ネットワークは、グラフ上で学習する優れた表現能力 (GNN) を示し、さまざまなタスクを容易にします。
グラフのモデリングにおいて GNN は優れたパフォーマンスを発揮しますが、最近の研究では、GNN がトレーニング データからバイアスを継承して増幅する傾向があることが示されており、リスクの高いシナリオでの GNN の採用に懸念が生じています。
したがって、公平性を意識した GNN のために多くの努力が払われてきました。
ただし、既存の公平な GNN のほとんどは、統計的公平性の概念を採用することで公平なノード表現を学習するため、統計的異常が存在する場合のバイアスを軽減できない可能性があります。
因果理論に動機づけられ、不公平の根本原因を軽減するためにグラフの反事実的公平性を利用する試みがいくつかあります。
ただし、これらの方法は、摂動や生成によって得られる非現実的な反事実に悩まされます。
この論文では、公平なグラフ学習問題について因果的見解をとります。
カジュアルな分析に導かれて、非現実的な反事実を回避するためにトレーニングデータから反事実を選択し、選択された反事実を採用してノード分類タスクの公平なノード表現を学習できる新しいフレームワークCAFを提案します。
合成データセットと現実世界のデータセットに関する広範な実験により、CAF の有効性が示されています。
私たちのコードは https://github.com/TimeLovercc/CAF-GNN で入手できます。
要約(オリジナル)
Graph neural networks have shown great ability in representation (GNNs) learning on graphs, facilitating various tasks. Despite their great performance in modeling graphs, recent works show that GNNs tend to inherit and amplify the bias from training data, causing concerns of the adoption of GNNs in high-stake scenarios. Hence, many efforts have been taken for fairness-aware GNNs. However, most existing fair GNNs learn fair node representations by adopting statistical fairness notions, which may fail to alleviate bias in the presence of statistical anomalies. Motivated by causal theory, there are several attempts utilizing graph counterfactual fairness to mitigate root causes of unfairness. However, these methods suffer from non-realistic counterfactuals obtained by perturbation or generation. In this paper, we take a causal view on fair graph learning problem. Guided by the casual analysis, we propose a novel framework CAF, which can select counterfactuals from training data to avoid non-realistic counterfactuals and adopt selected counterfactuals to learn fair node representations for node classification task. Extensive experiments on synthetic and real-world datasets show the effectiveness of CAF. Our code is available at https://github.com/TimeLovercc/CAF-GNN.
arxiv情報
著者 | Zhimeng Guo,Jialiang Li,Teng Xiao,Yao Ma,Suhang Wang |
発行日 | 2023-08-21 14:05:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google