要約
この論文では、保護された属性が欠落している状態で公平なグラフ ニューラル ネットワーク (GNN) を学習する問題について取り上げます。
GNN は、決定が特定のコミュニティに過度の影響を与える可能性がある多くの関連タスクで最先端の結果を達成しました。
ただし、公平な GNN に関する既存の研究では、保護された属性が完全に観察されるか、欠損データの代入が公平であることを前提としています。
実際には、代入におけるバイアスがモデルの結果に伝播し、予測の公平性を過大評価することになります。
私たちは、公平な GNN によって使用される保護された属性の公平な欠損データ補完モデルである Better Fair than Sorry (BFtS) を提案することで、この課題に対処します。
BFtS の背後にある重要な設計原則は、代入が公平な GNN の最悪のシナリオ、つまり公平性の最適化が最も難しい場合のシナリオに近似する必要があるということです。
私たちは、2 人の敵対者が公平な GNN に対して協力する 3 プレイヤー敵対的スキームを使用してこのアイデアを実装します。
合成データセットと実際のデータセットを使用した実験では、BFtS が既存の代替手段よりも優れた公平性 $\times$ 精度のトレードオフを達成することが多いことが示されています。
要約(オリジナル)
This paper addresses the problem of learning fair Graph Neural Networks (GNNs) under missing protected attributes. GNNs have achieved state-of-the-art results in many relevant tasks where decisions might disproportionately impact specific communities. However, existing work on fair GNNs assumes that either protected attributes are fully-observed or that the missing data imputation is fair. In practice, biases in the imputation will be propagated to the model outcomes, leading them to overestimate the fairness of their predictions. We address this challenge by proposing Better Fair than Sorry (BFtS), a fair missing data imputation model for protected attributes used by fair GNNs. The key design principle behind BFtS is that imputations should approximate the worst-case scenario for the fair GNN — i.e. when optimizing fairness is the hardest. We implement this idea using a 3-player adversarial scheme where two adversaries collaborate against the fair GNN. Experiments using synthetic and real datasets show that BFtS often achieves a better fairness $\times$ accuracy trade-off than existing alternatives.
arxiv情報
著者 | Debolina Halder Lina,Arlei Silva |
発行日 | 2024-02-15 17:48:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google