AdvFAS: A robust face anti-spoofing framework against adversarial examples

要約

プレゼンテーション攻撃に対する顔認識システムの信頼性を確保するためには、顔のなりすまし防止技術の導入が必要である。この分野ではかなりの進歩が見られるものの、最先端の手法でさえも、敵対的な例から防御する能力は依然として低いままである。いくつかの敵対的防御戦略が提案されているが、それらは一般的に、普遍性、有効性、効率性の間のトレードオフが避けられないため、実用性に制約がある。これらの課題を克服するために、我々は敵対的検出と顔なりすまし防止との間の結合関係を徹底的に掘り下げる。これに基づいて、我々は、正しく検出された顔画像と誤って検出された顔画像を正確に区別するために、2つの連成スコアを活用するロバストな顔なりすまし防止フレームワーク、すなわちAdvFASを提案する。広範な実験により、様々な攻撃、データセット、バックボーンを含む様々な環境において、本フレームワークの有効性を実証する。さらに、提案手法を実世界の敵対的な例の検出に適用することに成功した。

要約(オリジナル)

Ensuring the reliability of face recognition systems against presentation attacks necessitates the deployment of face anti-spoofing techniques. Despite considerable advancements in this domain, the ability of even the most state-of-the-art methods to defend against adversarial examples remains elusive. While several adversarial defense strategies have been proposed, they typically suffer from constrained practicability due to inevitable trade-offs between universality, effectiveness, and efficiency. To overcome these challenges, we thoroughly delve into the coupled relationship between adversarial detection and face anti-spoofing. Based on this, we propose a robust face anti-spoofing framework, namely AdvFAS, that leverages two coupled scores to accurately distinguish between correctly detected and wrongly detected face images. Extensive experiments demonstrate the effectiveness of our framework in a variety of settings, including different attacks, datasets, and backbones, meanwhile enjoying high accuracy on clean examples. Moreover, we successfully apply the proposed method to detect real-world adversarial examples.

arxiv情報

著者 Jiawei Chen,Xiao Yang,Heng Yin,Mingzhi Ma,Bihui Chen,Jianteng Peng,Yandong Guo,Zhaoxia Yin,Hang Su
発行日 2023-08-04 02:47:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV パーマリンク