Joint Physical-Digital Facial Attack Detection Via Simulating Spoofing Clues

要約

顔認識システムは、さまざまな種類の物理的およびデジタル攻撃に頻繁にさらされます。
以前の方法は、それぞれ物理的攻撃とデジタル攻撃に対処するシナリオで満足のいくパフォーマンスを達成しました。
しかし、物理的攻撃とデジタル攻撃の両方に同時に対処するモデルを統合する方法はほとんど検討されておらず、複数のモデルを開発および維持する必要性が示唆されています。
単一モデル内で物理的攻撃とデジタル攻撃を共同で検出するために、あらゆるネットワーク アーキテクチャに適応できる革新的なアプローチを提案します。
私たちのアプローチには主に 2 種類のデータ拡張が含まれており、これらを Simulated Physical Spoofing Clues 拡張 (SPSC) と Simulated Digital Spoofing Clue 拡張 (SDSC) と呼んでいます。
SPSC と SDSC は、それぞれ物理攻撃とデジタル攻撃のなりすましの手掛かりをシミュレートすることにより、ライブ サンプルをシミュレートされた攻撃サンプルに拡張します。これにより、「目に見えない」攻撃タイプを検出するモデルの能力が大幅に向上します。
広範な実験により、SPSC と SDSC がそれぞれ Uni AttackData データセットのプロトコル 2.1 と 2.2 で最先端の一般化を達成できることが示されています。
私たちの手法は、第 5 回顔アンチスプーフィング チャレンジ @ CVPR2024 の「統合された物理デジタル顔攻撃検出」で 1 位を獲得しました。
最終的な提出では、それぞれ 3.75% APCER、0.93% BPCER、2.34% ACER が得られました。
私たちのコードは https://github.com/Xianhua-He/cvpr2024-face-anti-spoofing-challenge で入手できます。

要約(オリジナル)

Face recognition systems are frequently subjected to a variety of physical and digital attacks of different types. Previous methods have achieved satisfactory performance in scenarios that address physical attacks and digital attacks, respectively. However, few methods are considered to integrate a model that simultaneously addresses both physical and digital attacks, implying the necessity to develop and maintain multiple models. To jointly detect physical and digital attacks within a single model, we propose an innovative approach that can adapt to any network architecture. Our approach mainly contains two types of data augmentation, which we call Simulated Physical Spoofing Clues augmentation (SPSC) and Simulated Digital Spoofing Clues augmentation (SDSC). SPSC and SDSC augment live samples into simulated attack samples by simulating spoofing clues of physical and digital attacks, respectively, which significantly improve the capability of the model to detect ‘unseen’ attack types. Extensive experiments show that SPSC and SDSC can achieve state-of-the-art generalization in Protocols 2.1 and 2.2 of the UniAttackData dataset, respectively. Our method won first place in ‘Unified Physical-Digital Face Attack Detection’ of the 5th Face Anti-spoofing Challenge@CVPR2024. Our final submission obtains 3.75% APCER, 0.93% BPCER, and 2.34% ACER, respectively. Our code is available at https://github.com/Xianhua-He/cvpr2024-face-anti-spoofing-challenge.

arxiv情報

著者 Xianhua He,Dashuang Liang,Song Yang,Zhanlong Hao,Hui Ma,Binjie Mao,Xi Li,Yao Wang,Pengfei Yan,Ajian Liu
発行日 2024-04-12 13:01:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク