Algorithmic Fairness Generalization under Covariate and Dependence Shifts Simultaneously

要約

ドメイン間で公平で不変な分類器の一般化を維持する取り組みは、特に分布の変化が存在する場合に、機械学習において重要かつ複雑な課題になります。
この課題に対応して、公平性を意識したドメインの一般化の問題に対処することに重点を置いて、多数の効果的なアルゴリズムが開発されてきました。
これらのアルゴリズムは、共変量と依存関係のシフトに特に重点を置いて、さまざまなタイプの分布シフトをナビゲートするように設計されています。
この文脈では、共変量シフトは入力フィーチャの周辺分布の変化に関係しますが、依存シフトはラベル変数と機密属性の結合分布の変更に関係します。
この論文では、ドメイン間の共変量と依存性のシフトの両方に同時に対処することで、公平で不変の分類器を学習することを目的とした、シンプルだが効果的なアプローチを紹介します。
基になる変換モデルの存在により、機密でない属性とクラスに関連するセマンティクスを維持しながら、あるドメインから別のドメインにデータを変換できると主張します。
モデルを通じてさまざまな合成データ ドメインを拡張することにより、ソース ドメインにおける公平で不変の分類器を学習します。
この分類器は、モデル予測と公平性の両方の懸念を維持しながら、未知のターゲット ドメインに一般化できます。
4 つのベンチマーク データセットに関する広範な実証研究により、私たちのアプローチが最先端の手法を超えていることが実証されています。

要約(オリジナル)

The endeavor to preserve the generalization of a fair and invariant classifier across domains, especially in the presence of distribution shifts, becomes a significant and intricate challenge in machine learning. In response to this challenge, numerous effective algorithms have been developed with a focus on addressing the problem of fairness-aware domain generalization. These algorithms are designed to navigate various types of distribution shifts, with a particular emphasis on covariate and dependence shifts. In this context, covariate shift pertains to changes in the marginal distribution of input features, while dependence shift involves alterations in the joint distribution of the label variable and sensitive attributes. In this paper, we introduce a simple but effective approach that aims to learn a fair and invariant classifier by simultaneously addressing both covariate and dependence shifts across domains. We assert the existence of an underlying transformation model can transform data from one domain to another, while preserving the semantics related to non-sensitive attributes and classes. By augmenting various synthetic data domains through the model, we learn a fair and invariant classifier in source domains. This classifier can then be generalized to unknown target domains, maintaining both model prediction and fairness concerns. Extensive empirical studies on four benchmark datasets demonstrate that our approach surpasses state-of-the-art methods.

arxiv情報

著者 Chen Zhao,Kai Jiang,Xintao Wu,Haoliang Wang,Latifur Khan,Christan Grant,Feng Chen
発行日 2024-05-21 13:51:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.LG パーマリンク