MMD-B-Fair: Learning Fair Representations with Statistical Testing

要約

タイトル:MMD-B-Fair:統計的検定を用いたフェアな表現の学習

要約:
– MMD-B-Fairという方法を紹介
– カーネル二つのサンプル検定を通じてデータのフェアな表現を学習する
– MMDテストが異なる敏感なグループの表現を識別できないニューラル機能を見つけ、同時に目標属性に関する情報を保持する
– 最大化(以前の作業で行われたように)するのと比較して、MMDテストのパワーを最小化することはより困難である。これはテスト閾値の複雑な振る舞いを単純に無視できないためである
– 当社の手法は、フェアな表現学習の既存の作業で広く使用されている複雑な対抗的最適化または生成モデリングスキームを必要とせず、ブロックテストスキームの単純な漸近的性質を利用して、効率的にフェアな表現を見つけることができる
– さまざまなデータセットで当社のアプローチを評価し、敏感な属性に関する情報を「隠す」能力と下流の転送タスクでの有効性を示す。

要約(オリジナル)

We introduce a method, MMD-B-Fair, to learn fair representations of data via kernel two-sample testing. We find neural features of our data where a maximum mean discrepancy (MMD) test cannot distinguish between representations of different sensitive groups, while preserving information about the target attributes. Minimizing the power of an MMD test is more difficult than maximizing it (as done in previous work), because the test threshold’s complex behavior cannot be simply ignored. Our method exploits the simple asymptotics of block testing schemes to efficiently find fair representations without requiring complex adversarial optimization or generative modelling schemes widely used by existing work on fair representation learning. We evaluate our approach on various datasets, showing its ability to “hide” information about sensitive attributes, and its effectiveness in downstream transfer tasks.

arxiv情報

著者 Namrata Deka,Danica J. Sutherland
発行日 2023-04-25 11:56:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG, stat.ML パーマリンク