A Universal Anti-Spoofing Approach for Contactless Fingerprint Biometric Systems

要約

スマートフォンの日常生活への組み込みが進むにつれて、指の写真が非接触認証方法の可能性を高めています。
これは利便性を提供しますが、さまざまなプレゼンテーション攻撃手段 (PAI) を使用したスプーフィングに対して脆弱でもあります。
非接触指紋は新興の生体認証ですが、なりすまし対策についてはまだ十分に調査されていません。
既存のスプーフィング対策アプローチはそれなりの結果を示しましたが、未知の/未知のスプーフィングサンプルを検出するための普遍性とスケーラビリティの点で課題に直面しています。
この問題に対処するために、プレゼンテーション攻撃サンプルに関する知識が限られているにもかかわらず、非接触指紋に対する汎用プレゼンテーション攻撃検出方法を提案します。
StyleGAN を使用してライブ指の写真から非接触合成指紋を生成し、それらを統合して半教師あり ResNet-18 モデルをトレーニングしました。
Arcface 損失と Center 損失を組み合わせた新しい結合損失関数が正則化によって導入され、2 つの損失関数間のバランスを取り、ライブ サンプル内の変動を最小限に抑えながら、ディープフェイクとライブ サンプル間のクラス間の変動を強化します。
また、プレゼンテーション攻撃検出 (PAD) の結合損失関数に対するさまざまな正則化の影響を包括的に比較し、Arcface と組み合わせてさまざまな活性化関数 (つまり、リーキー ReLU および RelU) を備えた修正 ResNet-18 アーキテクチャのパフォーマンスを調査しました。
そしてセンターロス。
最後に、目に見えないタイプのスプーフィング攻撃とライブデータを使用してモデルのパフォーマンスを評価します。
私たちが提案した手法は、真正分類誤り率 (BPCER) 0.12\%、攻撃提示分類誤り率 (APCER) 0.63\%、平均分類誤り率 (ACER) 0.37\% を達成しています。

要約(オリジナル)

With the increasing integration of smartphones into our daily lives, fingerphotos are becoming a potential contactless authentication method. While it offers convenience, it is also more vulnerable to spoofing using various presentation attack instruments (PAI). The contactless fingerprint is an emerging biometric authentication but has not yet been heavily investigated for anti-spoofing. While existing anti-spoofing approaches demonstrated fair results, they have encountered challenges in terms of universality and scalability to detect any unseen/unknown spoofed samples. To address this issue, we propose a universal presentation attack detection method for contactless fingerprints, despite having limited knowledge of presentation attack samples. We generated synthetic contactless fingerprints using StyleGAN from live finger photos and integrating them to train a semi-supervised ResNet-18 model. A novel joint loss function, combining the Arcface and Center loss, is introduced with a regularization to balance between the two loss functions and minimize the variations within the live samples while enhancing the inter-class variations between the deepfake and live samples. We also conducted a comprehensive comparison of different regularizations’ impact on the joint loss function for presentation attack detection (PAD) and explored the performance of a modified ResNet-18 architecture with different activation functions (i.e., leaky ReLU and RelU) in conjunction with Arcface and center loss. Finally, we evaluate the performance of the model using unseen types of spoof attacks and live data. Our proposed method achieves a Bona Fide Classification Error Rate (BPCER) of 0.12\%, an Attack Presentation Classification Error Rate (APCER) of 0.63\%, and an Average Classification Error Rate (ACER) of 0.37\%.

arxiv情報

著者 Banafsheh Adami,Sara Tehranipoor,Nasser Nasrabadi,Nima Karimian
発行日 2023-10-23 15:46:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク