On Biased Behavior of GANs for Face Verification

要約

ディープラーニングシステムは、学習用に大量のデータを必要とします。顔認証システムの学習用データセットは入手が困難であり、プライバシーの問題も発生しやすい。GANのような生成モデルによって生成された合成データは、良い代替手段となり得る。しかし、我々はGANから生成されたデータは偏りや公平性の問題が発生しやすいことを示す。具体的には、FFHQデータセットで学習したGANは、20-29歳の白人の顔を生成するように偏った振る舞いを示す。また、顔認証システムの微調整に合成顔を用いた場合、特に人種属性に不利な影響を与えることを実証しています。

要約(オリジナル)

Deep Learning systems need large data for training. Datasets for training face verification systems are difficult to obtain and prone to privacy issues. Synthetic data generated by generative models such as GANs can be a good alternative. However, we show that data generated from GANs are prone to bias and fairness issues. Specifically, GANs trained on FFHQ dataset show biased behavior towards generating white faces in the age group of 20-29. We also demonstrate that synthetic faces cause disparate impact, specifically for race attribute, when used for fine tuning face verification systems.

arxiv情報

著者 Sasikanth Kotti,Mayank Vatsa,Richa Singh
発行日 2023-01-05 14:11:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク