Disparity, Inequality, and Accuracy Tradeoffs in Graph Neural Networks for Node Classification

要約

グラフ ニューラル ネットワーク (GNN) は、属性付きグラフのノード ラベルを予測するために人間の重要なアプリケーションで使用されることが増えています。
正確な分類のためにノードの近隣ノードからの特徴を集約する機能は、データ内の既存のバイアスを悪化させたり、保護された人口統計グループのメンバーに対して新しいバイアスを導入したりする能力もあります。
したがって、GNN がどのように偏り、その有害な影響がどの程度軽減されるかを定量化することが不可欠です。
この目的を達成するために、我々は 2 つの新しい GNN に依存しない介入を提案します。すなわち、(i) 保護されたグループと保護されていないグループのノード間の分離性を低下させる PFR-AX、(ii) ブラックボックス ポリシーに基づいてモデル予測を更新して最小化する PostProcess です。
人口統計グループ間のエラー率の違い。
4 つのデータセットに対する大規模な実験を通じて、アルゴリズムの公平性と精度のトレードオフの観点からアプローチ (および 3 つのバリエーション) の有効性を枠組み化し、3 つの最先端の GNN での 3 つの強力なベースライン介入に対して結果をベンチマークします。
モデル。
私たちの結果は、単一の介入は普遍的に最適なトレードオフを提供しないことを示していますが、PFR-AX と PostProcess はきめ細かな制御を提供し、保護されたグループ内のノードの肯定的な結果を正確に予測する際のモデルの信頼性を向上させます。

要約(オリジナル)

Graph neural networks (GNNs) are increasingly used in critical human applications for predicting node labels in attributed graphs. Their ability to aggregate features from nodes’ neighbors for accurate classification also has the capacity to exacerbate existing biases in data or to introduce new ones towards members from protected demographic groups. Thus, it is imperative to quantify how GNNs may be biased and to what extent their harmful effects may be mitigated. To this end, we propose two new GNN-agnostic interventions namely, (i) PFR-AX which decreases the separability between nodes in protected and non-protected groups, and (ii) PostProcess which updates model predictions based on a blackbox policy to minimize differences between error rates across demographic groups. Through a large set of experiments on four datasets, we frame the efficacies of our approaches (and three variants) in terms of their algorithmic fairness-accuracy tradeoff and benchmark our results against three strong baseline interventions on three state-of-the-art GNN models. Our results show that no single intervention offers a universally optimal tradeoff, but PFR-AX and PostProcess provide granular control and improve model confidence when correctly predicting positive outcomes for nodes in protected groups.

arxiv情報

著者 Arpit Merchant,Carlos Castillo
発行日 2023-08-18 14:45:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG, cs.SI パーマリンク