Characterizing Lipschitz Stability of GNN for Fairness

要約

リプシッツ限界は、ロバスト統計による手法であり、関連する無関係な偏った要因を考慮して、入力に関する出力の最大変化を制限できます。
これは、追加の計算コストを発生させることなく、機械学習モデルの出力の安定性を調べるための効率的で証明可能な方法です。
最近、非ユークリッド データを操作するグラフ ニューラル ネットワーク (GNN) が大きな注目を集めています。
しかし、これまでの研究では、特に固有のバイアスを持つ非ユークリッド データを扱う場合に、モデル出力の安定化に光を当てる GNN リプシッツ限界を調査したことはありません。
GNN トレーニングに使用される一般的なグラフ データに固有のバイアスがあることを考えると、入力バイアスによって引き起こされる GNN 出力の摂動を制限し、それによってトレーニング中の公平性を保護することが重大な課題となります。
最近、ユークリッドニューラル ネットワークの安定性の制御にリプシッツ定数が使用されているにもかかわらず、GNN のような非ユークリッド ニューラル ネットワークでは、特に公平性のコンテキストにおいて、正確なリプシッツ定数の計算が依然として困難です。
このギャップを狭めるために、属性付きグラフ上で動作する一般的な GNN から始めて、入力に関連付けられたバイアスに関する出力の変化を制限するリプシッツ限界を定式化します。
さらに、GNN モデルのリプシッツ定数が、公平性トレーニングのデータから学習されたバイアスによって引き起こされる出力の摂動をどのように制限できるかを理論的に分析します。
モデル出力のバイアスを制限する際のリプシッツ限界の有効性を実験的に検証します。
最後に、トレーニング ダイナミクスの観点から、理論的なリプシッツ限界が GNN トレーニングを効果的に導き、精度と公平性の間のより良いトレードオフを実現できる理由を示します。

要約(オリジナル)

The Lipschitz bound, a technique from robust statistics, can limit the maximum changes in the output concerning the input, taking into account associated irrelevant biased factors. It is an efficient and provable method for examining the output stability of machine learning models without incurring additional computation costs. Recently, Graph Neural Networks (GNNs), which operate on non-Euclidean data, have gained significant attention. However, no previous research has investigated the GNN Lipschitz bounds to shed light on stabilizing model outputs, especially when working on non-Euclidean data with inherent biases. Given the inherent biases in common graph data used for GNN training, it poses a serious challenge to constraining the GNN output perturbations induced by input biases, thereby safeguarding fairness during training. Recently, despite the Lipschitz constant’s use in controlling the stability of Euclideanneural networks, the calculation of the precise Lipschitz constant remains elusive for non-Euclidean neural networks like GNNs, especially within fairness contexts. To narrow this gap, we begin with the general GNNs operating on an attributed graph, and formulate a Lipschitz bound to limit the changes in the output regarding biases associated with the input. Additionally, we theoretically analyze how the Lipschitz constant of a GNN model could constrain the output perturbations induced by biases learned from data for fairness training. We experimentally validate the Lipschitz bound’s effectiveness in limiting biases of the model output. Finally, from a training dynamics perspective, we demonstrate why the theoretical Lipschitz bound can effectively guide the GNN training to better trade-off between accuracy and fairness.

arxiv情報

著者 Yaning Jia,Chunhui Zhang,Jundong Li,Chuxu Zhang
発行日 2023-09-07 11:29:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク