要約
最近の研究では、グラフ トランスフォーマー (GT) モデルにおける、特に機密機能によって定義されたサブグループに対する重大な公平性の問題が浮き彫りになっています。
さらに、GT は計算量が多くメモリを多く必要とするため、その適用は大規模なグラフに限定されます。
私たちの実験は、グラフ分割により計算の複雑さを軽減しながら GT モデルの公平性を高めることができることを示しています。
この改善を理解するために、GT モデルにおける公平性の問題の根本原因について理論的な調査を実施しました。
高次ノードの機密機能が低次ノードに不均衡な影響を与え、機密機能の偏りが生じることがわかりました。
我々は、上位ノードの悪影響を最小限に抑えるためにグラフを分割するグラフ分割 (FairGP) に基づいた公平性を意識したスケーラブル GT を提案します。
FairGP は、アテンションのメカニズムを最適化することで、グローバルなアテンションによってもたらされるバイアスを軽減し、公平性を高めます。
6 つの現実世界のデータセットに対する広範な実証的評価により、最先端の手法と比較して、公平性の達成における FairGP の優れたパフォーマンスが検証されています。
コードは https://github.com/LuoRenqiang/FairGP で入手できます。
要約(オリジナル)
Recent studies have highlighted significant fairness issues in Graph Transformer (GT) models, particularly against subgroups defined by sensitive features. Additionally, GTs are computationally intensive and memory-demanding, limiting their application to large-scale graphs. Our experiments demonstrate that graph partitioning can enhance the fairness of GT models while reducing computational complexity. To understand this improvement, we conducted a theoretical investigation into the root causes of fairness issues in GT models. We found that the sensitive features of higher-order nodes disproportionately influence lower-order nodes, resulting in sensitive feature bias. We propose Fairness-aware scalable GT based on Graph Partitioning (FairGP), which partitions the graph to minimize the negative impact of higher-order nodes. By optimizing attention mechanisms, FairGP mitigates the bias introduced by global attention, thereby enhancing fairness. Extensive empirical evaluations on six real-world datasets validate the superior performance of FairGP in achieving fairness compared to state-of-the-art methods. The codes are available at https://github.com/LuoRenqiang/FairGP.
arxiv情報
著者 | Renqiang Luo,Huafei Huang,Ivan Lee,Chengpei Xu,Jianzhong Qi,Feng Xia |
発行日 | 2025-01-02 04:53:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google