Optimizing Key-Selection for Face-based One-Time Biometrics via Morphing

要約

現在でも、顔認識システムは依然として敵対的な攻撃に対して脆弱です。
これらの攻撃は、入力画像の単純な摂動から、承認された主体になりすますための認識モデルのパラメータの変更まで多岐にわたります。
いわゆるプライバシー強化顔認識システムは、主に、保存された生体認証参照データ、つまりテンプレートを保護するために開発されてきました。
文献では、プライバシーを強化する顔認識アプローチは、テンプレート レベルでの従来のセキュリティ脅威のみに焦点を当てており、敵対的攻撃に関連する懸念の高まりを無視しています。
これまで、テンプレート レベルで高いセキュリティを維持しながら、敵対的な攻撃から顔認識を保護するメカニズムを提供した作品はほとんどありませんでした。
この論文では、信号レベルで動作する競合キャンセル可能なスキームのセキュリティを向上させるためのさまざまな鍵選択戦略を提案します。
実験結果によると、信号レベルの鍵選択に基づく特定の戦略は、最も安全なしきい値の反復的な最適化に基づいて敵対的攻撃を完全にブロックできる一方、最も実用的なしきい値では、攻撃の成功確率が約 5.0 まで低下する可能性があることを示しています。
%。

要約(オリジナル)

Nowadays, facial recognition systems are still vulnerable to adversarial attacks. These attacks vary from simple perturbations of the input image to modifying the parameters of the recognition model to impersonate an authorised subject. So-called privacy-enhancing facial recognition systems have been mostly developed to provide protection of stored biometric reference data, i.e. templates. In the literature, privacy-enhancing facial recognition approaches have focused solely on conventional security threats at the template level, ignoring the growing concern related to adversarial attacks. Up to now, few works have provided mechanisms to protect face recognition against adversarial attacks while maintaining high security at the template level. In this paper, we propose different key selection strategies to improve the security of a competitive cancelable scheme operating at the signal level. Experimental results show that certain strategies based on signal-level key selection can lead to complete blocking of the adversarial attack based on an iterative optimization for the most secure threshold, while for the most practical threshold, the attack success chance can be decreased to approximately 5.0%.

arxiv情報

著者 Daile Osorio-Roig,Mahdi Ghafourian,Christian Rathgeb,Ruben Vera-Rodriguez,Christoph Busch,Julian Fierrez
発行日 2023-10-04 17:32:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク