要約
グラフ データ、モデル アーキテクチャ設計、トレーニング戦略の強化により、グラフ ニューラル ネットワーク (GNN) のパフォーマンスの向上に大きな進歩が見られました。
グラフの公平性について、最近の研究では、グラフデータの前処理 (例: ノード特徴のマスキング、トポロジーの再配線) または公平なトレーニング戦略 (例: 正則化、敵対的バイアス除去、公平な対比学習) のいずれかを通じて、公平な表現と予測を実現しています。
モデル アーキテクチャの観点からグラフの公平性を実現する方法は、あまり検討されていません。
さらに重要なことは、GNN のモデル アーキテクチャ (つまり、近隣集約) がバイアスを増幅するため、GNN は多層認識と比較して公平性のパフォーマンスが劣ることです。
この目的を達成するために、私たちは新しい GNN アーキテクチャを通じて公平性を達成することを目指しています。
私たちは、GNN 用の統合最適化フレームワーク内で設計された \textsf{F}air \textsf{M}essage \textsf{P}assing (FMP) を提案します。
特に、FMP \textit{explicitly} は、データの前処理を行わずに、クロスエントロピー損失を使用してノード分類タスクの \textit{順伝播} で機密属性の使用をレンダリングします。
FMP では、まず近隣情報を利用するために集約が採用され、次にバイアス緩和ステップによって人口統計グループ ノードのプレゼンテーション センターが明示的にまとめられます。
このように、FMP スキームは近隣からの有用な情報を集約し、バイアスを軽減して、より優れた公平性と予測のトレードオフ パフォーマンスを実現できます。
ノード分類タスクに関する実験では、提案された FMP が 3 つの現実世界のデータセットにおける公平性と精度の点でいくつかのベースラインよりも優れていることが実証されました。
コードは {\url{https://github.com/zhimengj0326/FMP}} で入手できます。
要約(オリジナル)
There has been significant progress in improving the performance of graph neural networks (GNNs) through enhancements in graph data, model architecture design, and training strategies. For fairness in graphs, recent studies achieve fair representations and predictions through either graph data pre-processing (e.g., node feature masking, and topology rewiring) or fair training strategies (e.g., regularization, adversarial debiasing, and fair contrastive learning). How to achieve fairness in graphs from the model architecture perspective is less explored. More importantly, GNNs exhibit worse fairness performance compared to multilayer perception since their model architecture (i.e., neighbor aggregation) amplifies biases. To this end, we aim to achieve fairness via a new GNN architecture. We propose \textsf{F}air \textsf{M}essage \textsf{P}assing (FMP) designed within a unified optimization framework for GNNs. Notably, FMP \textit{explicitly} renders sensitive attribute usage in \textit{forward propagation} for node classification task using cross-entropy loss without data pre-processing. In FMP, the aggregation is first adopted to utilize neighbors’ information and then the bias mitigation step explicitly pushes demographic group node presentation centers together. In this way, FMP scheme can aggregate useful information from neighbors and mitigate bias to achieve better fairness and prediction tradeoff performance. Experiments on node classification tasks demonstrate that the proposed FMP outperforms several baselines in terms of fairness and accuracy on three real-world datasets. The code is available in {\url{https://github.com/zhimengj0326/FMP}}.
arxiv情報
著者 | Zhimeng Jiang,Xiaotian Han,Chao Fan,Zirui Liu,Na Zou,Ali Mostafavi,Xia Hu |
発行日 | 2023-12-19 18:00:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google