要約
公平性を意識したドメイン一般化 (FairDG) は、特にディストリビューションの変更を伴うシナリオにおいて、信頼できる AI システムを展開するための重要な課題として浮上しています。
公平性に対処するための従来の方法は、分布の変化を考慮していないため、ドメインの一般化に失敗していました。
FairDG に取り組むために解きほぐしが使用されてきましたが、その強力な前提によって限界があります。
これらの制限を克服するために、FairDG 問題に効果的に対処する新しいアプローチとして、Fairness-aware Classifier-Guided Score-based Diffusion Models (FADE) を提案します。
具体的には、まずスコアベースの拡散モデル (SDM) と 2 つの分類器を事前トレーニングして、モデルにさまざまなドメインにわたる強力な一般化機能を装備します。
次に、これらの事前トレーニングされた分類器を使用して SDM をガイドし、生成されたデータから機密情報を効果的に削除します。
最後に、生成された公平なデータは下流の分類器のトレーニングに使用され、新しいデータ分布の下で堅牢なパフォーマンスが保証されます。
3 つの現実世界のデータセットに対する広範な実験により、FADE が公平性を強化するだけでなく、分布シフトが存在する場合の精度も向上することが実証されました。
さらに、FADE は、精度と公平性の最適なトレードオフを達成する点で、既存の方法よりも優れています。
要約(オリジナル)
Fairness-aware domain generalization (FairDG) has emerged as a critical challenge for deploying trustworthy AI systems, particularly in scenarios involving distribution shifts. Traditional methods for addressing fairness have failed in domain generalization due to their lack of consideration for distribution shifts. Although disentanglement has been used to tackle FairDG, it is limited by its strong assumptions. To overcome these limitations, we propose Fairness-aware Classifier-Guided Score-based Diffusion Models (FADE) as a novel approach to effectively address the FairDG issue. Specifically, we first pre-train a score-based diffusion model (SDM) and two classifiers to equip the model with strong generalization capabilities across different domains. Then, we guide the SDM using these pre-trained classifiers to effectively eliminate sensitive information from the generated data. Finally, the generated fair data is used to train downstream classifiers, ensuring robust performance under new data distributions. Extensive experiments on three real-world datasets demonstrate that FADE not only enhances fairness but also improves accuracy in the presence of distribution shifts. Additionally, FADE outperforms existing methods in achieving the best accuracy-fairness trade-offs.
arxiv情報
著者 | Yujie Lin,Dong Li,Chen Zhao,Minglai Shao |
発行日 | 2024-08-28 12:46:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google