Distributionally Generative Augmentation for Fair Facial Attribute Classification

要約

顔属性分類 (FAC) は、広範なアプリケーションで大きな可能性を秘めています。
ただし、従来の方法論でトレーニングされた FAC モデルは、さまざまなデータ部分母集団間で精度の不一致が見られるため、不公平になる可能性があります。
この不公平さは主にデータの偏りに起因しており、一部の偽の属性 (例: 男性) が対象の属性 (例: 笑顔) と統計的に相関しています。
既存の公平性を意識した方法のほとんどは、実際には利用できない可能性がある偽の属性のラベルに依存しています。
この研究では、追加のアノテーションなしで偏ったデータに基づいて公平な FAC モデルをトレーニングするための、新しい世代ベースの 2 段階のフレームワークを提案しています。
最初に、生成モデルに基づいて潜在的なスプリアス属性を特定します。
特に、画像空間内の偽の属性を明示的に示すことで解釈可能性が向上します。
これに続いて、各画像について、まず、ターゲット属性を変更せずに、一様分布からサンプリングされたランダムな度合いで偽の属性を編集します。
次に、これらの拡張に対するモデルの不変性を促進することにより、公平な FAC モデルをトレーニングします。
3 つの一般的なデータセットに対する広範な実験により、精度を損なうことなく FAC の公平性を促進する私たちの方法の有効性が実証されました。
コードは https://github.com/heqianpei/DiGA にあります。

要約(オリジナル)

Facial Attribute Classification (FAC) holds substantial promise in widespread applications. However, FAC models trained by traditional methodologies can be unfair by exhibiting accuracy inconsistencies across varied data subpopulations. This unfairness is largely attributed to bias in data, where some spurious attributes (e.g., Male) statistically correlate with the target attribute (e.g., Smiling). Most of existing fairness-aware methods rely on the labels of spurious attributes, which may be unavailable in practice. This work proposes a novel, generation-based two-stage framework to train a fair FAC model on biased data without additional annotation. Initially, we identify the potential spurious attributes based on generative models. Notably, it enhances interpretability by explicitly showing the spurious attributes in image space. Following this, for each image, we first edit the spurious attributes with a random degree sampled from a uniform distribution, while keeping target attribute unchanged. Then we train a fair FAC model by fostering model invariance to these augmentation. Extensive experiments on three common datasets demonstrate the effectiveness of our method in promoting fairness in FAC without compromising accuracy. Codes are in https://github.com/heqianpei/DiGA.

arxiv情報

著者 Fengda Zhang,Qianpei He,Kun Kuang,Jiashuo Liu,Long Chen,Chao Wu,Jun Xiao,Hanwang Zhang
発行日 2024-03-25 06:57:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク