Fairness in Face Presentation Attack Detection

要約

顔プレゼンテーション攻撃検出 (PAD) は、顔認識 (FR) アプリケーションをプレゼンテーション攻撃から保護するために重要です。
FR のパフォーマンスは、特定の人口統計グループおよび非人口統計グループにとって不公平であることが示されています。
ただし、主に適切に注釈が付けられたデータがないため、顔 PAD の公平性は十分に研究されていない問題です。
この問題に対処するために、この作業では最初に、7 つの人間が注釈を付けた属性ラベルを提供するいくつかのよく知られた PAD データセットを組み合わせることにより、結合属性注釈付き PAD データセット (CAAD-PAD) を提示します。
次に、この作業では、CAAD-PAD で 4 つの顔 PAD アプローチを研究することにより、一連の顔 PAD の公平性と、トレーニング データの性質およびさまざまなデータ グループの運用決定しきい値割り当て (ODTA) との関係を包括的に分析します。
PAD の公平性と絶対的な PAD パフォーマンスの両方を同時に表すために、Accuracy Balanced Fairness (ABF) という新しいメトリックを導入します。
CAAD-PAD に関する広範な実験では、トレーニング データと ODTA が性別、オクルージョン、およびその他の属性グループに不公平を引き起こすことが示されています。
これらの分析に基づいて、ID/セマンティック情報を混乱させ、モデルを属性関連情報ではなく攻撃キューをマイニングするように導くことを目的としたデータ拡張方法である FairSWAP を提案します。
詳細な実験結果は、FairSWAP が一般的に PAD のパフォーマンスとフェイス PAD の公平性の両方を向上させることを示しています。

要約(オリジナル)

Face presentation attack detection (PAD) is critical to secure face recognition (FR) applications from presentation attacks. FR performance has been shown to be unfair to certain demographic and non-demographic groups. However, the fairness of face PAD is an understudied issue, mainly due to the lack of appropriately annotated data. To address this issue, this work first presents a Combined Attribute Annotated PAD Dataset (CAAD-PAD) by combining several well-known PAD datasets where we provide seven human-annotated attribute labels. This work then comprehensively analyses the fairness of a set of face PADs and its relation to the nature of training data and the Operational Decision Threshold Assignment (ODTA) on different data groups by studying four face PAD approaches on our CAAD-PAD. To simultaneously represent both the PAD fairness and the absolute PAD performance, we introduce a novel metric, namely the Accuracy Balanced Fairness (ABF). Extensive experiments on CAAD-PAD show that the training data and ODTA induce unfairness on gender, occlusion, and other attribute groups. Based on these analyses, we propose a data augmentation method, FairSWAP, which aims to disrupt the identity/semantic information and guide models to mine attack cues rather than attribute-related information. Detailed experimental results demonstrate that FairSWAP generally enhances both the PAD performance and the fairness of face PAD.

arxiv情報

著者 Meiling Fang,Wufei Yang,Arjan Kuijper,Vitomir Struc,Naser Damer
発行日 2022-09-19 14:12:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク