CAFIN: Centrality Aware Fairness inducing IN-processing for Unsupervised Representation Learning on Graphs

要約

タイトル:グラフ上での無監督表現学習のための中心性に注意した公平性導入インプロセシング、CAF IN

要約:

– 大規模グラフ上の無監督表現学習は、学習された埋め込みのコンパクトさと豊かさ、そして未ラベルのグラフデータの豊富さにより、研究コミュニティで注目を集めています。
– グラフノードの表現が、下流タスクに対してバイアスを引き起こさないように適切な公平性制約を適用する必要があります。
– したがって、グラフ学習アルゴリズムのグループおよび個人の公平性の概念が、特定の下流タスクについて研究されています。
– これらの公平性概念の主な制限の1つは、グラフ内の接続パターンを考慮していないため、ノードの影響(または中心性パワー)が異なることです。
– この論文では、付加的な公平性フレームワークを提案し、グラフ表現学習アルゴリズムにおける帰納的なセントラリティに注意しています。
– 我々は、CAF IN(Centrality Aware Fairness inducing IN-processing)を提案し、GraphSAGEの表現を改善するためにグラフ構造を利用するインプロセシング技術を開発しました。GraphSAGEは、無監督帰納的な環境で広く用いられています。
– Link prediction および Node Classification などの2つの下流タスクにおいて、帰納的なセッティングにおいてCAF INの有効性を実証しました。
– 実験的に、CAF INは、様々なドメインからのデータセットにおいて(不平等性の測定値である不平等性の削減率は、18%から80%に変動)、グループ間の不公平性の不均衡を一定に減らし、最小限の性能コストを負担します。

要約(オリジナル)

Unsupervised representation learning on (large) graphs has received significant attention in the research community due to the compactness and richness of the learned embeddings and the abundance of unlabelled graph data. When deployed, these node representations must be generated with appropriate fairness constraints to minimize bias induced by them on downstream tasks. Consequently, group and individual fairness notions for graph learning algorithms have been investigated for specific downstream tasks. One major limitation of these fairness notions is that they do not consider the connectivity patterns in the graph leading to varied node influence (or centrality power). In this paper, we design a centrality-aware fairness framework for inductive graph representation learning algorithms. We propose CAFIN (Centrality Aware Fairness inducing IN-processing), an in-processing technique that leverages graph structure to improve GraphSAGE’s representations – a popular framework in the unsupervised inductive setting. We demonstrate the efficacy of CAFIN in the inductive setting on two popular downstream tasks – Link prediction and Node Classification. Empirically, they consistently minimize the disparity in fairness between groups across datasets (varying from 18 to 80% reduction in imparity, a measure of group fairness) from different domains while incurring only a minimal performance cost.

arxiv情報

著者 Arvindh Arun,Aakash Aanegola,Amul Agrawal,Ramasuri Narayanam,Ponnurangam Kumaraguru
発行日 2023-04-10 05:40:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク