要約
アルゴリズムの公平性を正式に保証することは、社会的に責任のある機械学習アルゴリズムの展開にとって最も重要です。
この研究では、ニューラル ネットワークの個別の公平性 (IF) に対する形式的な保証、つまり証明書について研究します。
まず、局所的な個別公平性の正式な保証を提供するための計算コストを指数関数的に削減する、IF 制約の新しい凸近似を導入します。
従来の手法はグローバル IF 認証に重点を置いているため制約があり、そのため数十個の隠れニューロンを含むモデルにしか拡張できず、実際的な効果が限定されていることを強調します。
私たちは、特定の経験的分布と $\gamma$-Wasserstein ボール内のすべての分布について、ニューラル ネットワークが個別に公平な予測を保証していることを保証する、分布の個別公平性を証明することを提案します。
準凸最適化の開発を活用して、分布上の個別の公平性に関する斬新で効率的な認証限界を提供し、私たちの方法により、以前の研究で考慮されていたものよりも数桁大きいニューラル ネットワークを認証し、正規化できることを示します。
さらに、私たちは現実世界の分布の変化を研究し、その限界がスケーラブルで実用的な、IF 保証の音源であることを発見しました。
要約(オリジナル)
Providing formal guarantees of algorithmic fairness is of paramount importance to socially responsible deployment of machine learning algorithms. In this work, we study formal guarantees, i.e., certificates, for individual fairness (IF) of neural networks. We start by introducing a novel convex approximation of IF constraints that exponentially decreases the computational cost of providing formal guarantees of local individual fairness. We highlight that prior methods are constrained by their focus on global IF certification and can therefore only scale to models with a few dozen hidden neurons, thus limiting their practical impact. We propose to certify distributional individual fairness which ensures that for a given empirical distribution and all distributions within a $\gamma$-Wasserstein ball, the neural network has guaranteed individually fair predictions. Leveraging developments in quasi-convex optimization, we provide novel and efficient certified bounds on distributional individual fairness and show that our method allows us to certify and regularize neural networks that are several orders of magnitude larger than those considered by prior works. Moreover, we study real-world distribution shifts and find our bounds to be a scalable, practical, and sound source of IF guarantees.
arxiv情報
著者 | Matthew Wicker,Vihari Piratia,Adrian Weller |
発行日 | 2023-11-20 16:41:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google