FARE: Provably Fair Representation Learning with Practical Certificates

要約

公正表現学習 (FRL) は、データの前処理を通じて公正な分類器を生成することを目的とした、一般的な手法です。
最近の規制指令では、実用的な証明書、つまり、前処理されたデータでトレーニングされた下流分類器の不公平性に関する証明可能な上限を提供する FRL 手法の必要性が強調されており、実際のシナリオで保証が直接提供されます。
このような FRL 手法の作成は、未解決のままである重要な課題です。
この研究では、その課題に対処し、実用的な公平性証明書を備えた最初の FRL 手法である FARE (制限付きエンコーダーによる公平性) を導入します。
FARE は、エンコーダの表現空間を制限することで実用的な保証を導き出すことができると同時に、フェア ツリーに基づいて提案するような、適切なインスタンス化の好ましい精度と公平性のトレードオフを可能にするという重要な洞察に基づいています。
実用的な証明書を作成するために、FARE 埋め込みでトレーニングされた下流分類器の不公平性に関する有限サンプルの信頼度の高い上限を計算する統計手順を開発して適用します。
私たちの包括的な実験評価では、FARE が厳格で、多くの場合、従来の方法で得られた純粋に経験的な結果とさえ匹敵する実用的な証明書を生成することを実証し、これにより私たちのアプローチの実際的な価値が確立されます。

要約(オリジナル)

Fair representation learning (FRL) is a popular class of methods aiming to produce fair classifiers via data preprocessing. Recent regulatory directives stress the need for FRL methods that provide practical certificates, i.e., provable upper bounds on the unfairness of any downstream classifier trained on preprocessed data, which directly provides assurance in a practical scenario. Creating such FRL methods is an important challenge that remains unsolved. In this work, we address that challenge and introduce FARE (Fairness with Restricted Encoders), the first FRL method with practical fairness certificates. FARE is based on our key insight that restricting the representation space of the encoder enables the derivation of practical guarantees, while still permitting favorable accuracy-fairness tradeoffs for suitable instantiations, such as one we propose based on fair trees. To produce a practical certificate, we develop and apply a statistical procedure that computes a finite sample high-confidence upper bound on the unfairness of any downstream classifier trained on FARE embeddings. In our comprehensive experimental evaluation, we demonstrate that FARE produces practical certificates that are tight and often even comparable with purely empirical results obtained by prior methods, which establishes the practical value of our approach.

arxiv情報

著者 Nikola Jovanović,Mislav Balunović,Dimitar I. Dimitrov,Martin Vechev
発行日 2023-06-08 13:20:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク