要約
タイトル:統計的検定による公平な表現の学習、MMD-B-Fair
要約:
– MMD-B-Fairという手法を導入することで、カーネル二サンプル検定を通じて、データの公平な表現を学習することができます。
– 我々は、最大平均差異(MMD)テストが異なる敏感なグループの表現を区別できないニューラル特徴を見つけ、同時にターゲット属性の情報を保持します。
– 従来の方法で行われていたように、最大化するのではなくMMDテストのパワーを最小化することはより難しいため、単純に無視することはできません。我々の手法は、ブロックテストスキームの単純な漸近値を利用して、公平な表現を複雑な敵対的最適化や既存の公平な表現学習の生成モデリング手法なしで効率的に見つけることができます。
– さまざまなデータセットで我々のアプローチを評価し、敏感な属性に関する情報を「隠す」能力と、ダウンストリームの転送タスクでの効果を示しています。
要約(オリジナル)
We introduce a method, MMD-B-Fair, to learn fair representations of data via kernel two-sample testing. We find neural features of our data where a maximum mean discrepancy (MMD) test cannot distinguish between representations of different sensitive groups, while preserving information about the target attributes. Minimizing the power of an MMD test is more difficult than maximizing it (as done in previous work), because the test threshold’s complex behavior cannot be simply ignored. Our method exploits the simple asymptotics of block testing schemes to efficiently find fair representations without requiring complex adversarial optimization or generative modelling schemes widely used by existing work on fair representation learning. We evaluate our approach on various datasets, showing its ability to “hide” information about sensitive attributes, and its effectiveness in downstream transfer tasks.
arxiv情報
著者 | Namrata Deka,Danica J. Sutherland |
発行日 | 2023-04-24 13:17:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI