Fairness in Face Presentation Attack Detection

要約

顔認識 (FR) アルゴリズムは、特定の人口統計上のグループおよび非人口統計上のグループに対して差別的な動作を示すことが証明されており、現実世界のシナリオでの展開に関して倫理的および法的な懸念が生じています。
FR における公平性に関する研究の数が増えているにもかかわらず、顔提示攻撃検出 (PAD) の公平性は見落とされてきました。これは、主に適切に注釈が付けられたデータが不足していることが原因です。
このような行動による潜在的な悪影響を回避および軽減するには、顔 PAD の公平性を評価し、公平な PAD モデルを開発することが不可欠です。
顔 PAD での公平性分析を可能にするために、人間が注釈を付けた 7 つの属性ラベルを提供する複合属性注釈付き PAD データセット (CAAD-PAD) を紹介します。
次に、一連の顔 PAD ソリューションを通じて、PAD の公平性と、トレーニング データの性質および運用決定しきい値割り当て (ODTA) との関係を包括的に分析します。
さらに、PAD の公平性と絶対的な PAD パフォーマンスの両方を表す、Accuracy Balanced Fairness (ABF) という新しい指標を提案します。
実験結果は、すべての PAD ソリューションによって、女性と遮蔽特徴 (眼鏡、ひげなど) のある顔は、男性や非遮蔽グループに比べて相対的に保護が低いことが指摘されました。
この観察された不公平性を軽減するために、アイデンティティ/セマンティック情報を破壊し、モデルが攻撃の手がかりをマイニングすることを促す、プラグアンドプレイのデータ拡張手法である FairSWAP を提案します。
広範な実験結果は、FairSWAP により、調査された 12 件中 10 件の顔 PAD のパフォーマンスが向上し、より公平な顔 PAD が得られることを示しています。

要約(オリジナル)

Face recognition (FR) algorithms have been proven to exhibit discriminatory behaviors against certain demographic and non-demographic groups, raising ethical and legal concerns regarding their deployment in real-world scenarios. Despite the growing number of fairness studies in FR, the fairness of face presentation attack detection (PAD) has been overlooked, mainly due to the lack of appropriately annotated data. To avoid and mitigate the potential negative impact of such behavior, it is essential to assess the fairness in face PAD and develop fair PAD models. To enable fairness analysis in face PAD, we present a Combined Attribute Annotated PAD Dataset (CAAD-PAD), offering seven human-annotated attribute labels. Then, we comprehensively analyze the fairness of PAD and its relation to the nature of the training data and the Operational Decision Threshold Assignment (ODTA) through a set of face PAD solutions. Additionally, we propose a novel metric, the Accuracy Balanced Fairness (ABF), that jointly represents both the PAD fairness and the absolute PAD performance. The experimental results pointed out that female and faces with occluding features (e.g. eyeglasses, beard, etc.) are relatively less protected than male and non-occlusion groups by all PAD solutions. To alleviate this observed unfairness, we propose a plug-and-play data augmentation method, FairSWAP, to disrupt the identity/semantic information and encourage models to mine the attack clues. The extensive experimental results indicate that FairSWAP leads to better-performing and fairer face PADs in 10 out of 12 investigated cases.

arxiv情報

著者 Meiling Fang,Wufei Yang,Arjan Kuijper,Vitomir Struc,Naser Damer
発行日 2023-10-19 09:23:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク