Individual Fairness in Bayesian Neural Networks

要約

タイトル:Bayesian Neural Networksにおける個人的公正性

要約:

– Bayesianニューラルネットワーク(BNN)における個人的公正性(IF)について研究しています。
– 具体的には、与えられた類似性メトリックに従って$\epsilon$-similarである任意の入力点のペアの場合、BNNの出力が与えられた公差$\delta>0$内にあることを必要とする$\epsilon$-$\delta$-individual fairnessの概念を考慮しています。
– 入力空間に対する統計サンプリングの境界や、対抗的な頑健性と個人的公正性の関係に対する境界を利用して、$\epsilon$-$\delta$-IFのシステマティックな推定のためのフレームワークを導出するために、BNNに対する公正性を考慮したグローバル拡張であるFair-FGSMおよびFair-PGDを勾配ベースの攻撃のための設計を行います。
– さまざまなアーキテクチャを持つ約推定されたBNNのIFを公平性のベンチマークと比較して実証的に研究し、頻度主義的技法を用いて学習された決定論的モデルと比較します。
– 興味深いことに、われわれは、近似ベイズ推論によって訓練されたBNNが、決定論的な対応物よりも一貫して個人的に公正である傾向があることを発見しました。

要約(オリジナル)

We study Individual Fairness (IF) for Bayesian neural networks (BNNs). Specifically, we consider the $\epsilon$-$\delta$-individual fairness notion, which requires that, for any pair of input points that are $\epsilon$-similar according to a given similarity metrics, the output of the BNN is within a given tolerance $\delta>0.$ We leverage bounds on statistical sampling over the input space and the relationship between adversarial robustness and individual fairness to derive a framework for the systematic estimation of $\epsilon$-$\delta$-IF, designing Fair-FGSM and Fair-PGD as global,fairness-aware extensions to gradient-based attacks for BNNs. We empirically study IF of a variety of approximately inferred BNNs with different architectures on fairness benchmarks, and compare against deterministic models learnt using frequentist techniques. Interestingly, we find that BNNs trained by means of approximate Bayesian inference consistently tend to be markedly more individually fair than their deterministic counterparts.

arxiv情報

著者 Alice Doherty,Matthew Wicker,Luca Laurenti,Andrea Patane
発行日 2023-04-21 09:12:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CY, cs.LG パーマリンク