Drop Edges and Adapt: a Fairness Enforcing Fine-tuning for Graph Neural Networks

要約

多くの異なるネットワーク サイエンス タスクの主要なソリューションとしてグラフ表現学習が台頭したことで、この一連の手法の公平性に対する関心が高まりました。
特に、リンク予測は社会的に大きな影響を与えます。
ただし、リンク予測アルゴリズムは、特定の人口統計グループ内の個人間のリンクを好まないことにより、ソーシャル ネットワークの分離を増加させる傾向があります。
この論文では、微調整戦略を使用してグラフ ニューラル ネットワークに公平性を適用する新しい方法を提案します。
不公平なエッジを削除すると同時に、モデルのパラメーターをそれらの変更に適応させます。つまり、DEA です。
リンク予測タスク用に明示的に設計された 2 つの共分散ベースの制約を導入します。
これらの制約を使用して、新しい「公正な」隣接行列の学習を担当する最適化プロセスを導きます。
DEA の目新しさの 1 つは、離散的でありながら学習可能な隣接行列を微調整に使用できることです。
5 つの実世界のデータセットに対するアプローチの有効性を実証し、リンク予測タスクの精度と公平性の両方を改善できることを示します。
さらに、隣接行列のトレーニングアルゴリズムを使用して、トレーニング中のリンク予測パフォーマンスを改善できることを示す詳細なアブレーション研究を提示します。
最後に、フレームワークの各コンポーネントの関連性を計算して、制約と隣接行列のトレーニングの両方の組み合わせが最適なパフォーマンスにつながることを示します。

要約(オリジナル)

The rise of graph representation learning as the primary solution for many different network science tasks led to a surge of interest in the fairness of this family of methods. Link prediction, in particular, has a substantial social impact. However, link prediction algorithms tend to increase the segregation in social networks by disfavoring the links between individuals in specific demographic groups. This paper proposes a novel way to enforce fairness on graph neural networks with a fine-tuning strategy. We Drop the unfair Edges and, simultaneously, we Adapt the model’s parameters to those modifications, DEA in short. We introduce two covariance-based constraints designed explicitly for the link prediction task. We use these constraints to guide the optimization process responsible for learning the new ‘fair’ adjacency matrix. One novelty of DEA is that we can use a discrete yet learnable adjacency matrix in our fine-tuning. We demonstrate the effectiveness of our approach on five real-world datasets and show that we can improve both the accuracy and the fairness of the link prediction tasks. In addition, we present an in-depth ablation study demonstrating that our training algorithm for the adjacency matrix can be used to improve link prediction performances during training. Finally, we compute the relevance of each component of our framework to show that the combination of both the constraints and the training of the adjacency matrix leads to optimal performances.

arxiv情報

著者 Indro Spinelli,Riccardo Bianchini,Simone Scardapane
発行日 2023-02-22 16:28:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク