要約
合成データを使用した指紋認識モデルのトレーニングは、機密の個人データへの依存を軽減するため、最近、生体認証コミュニティでますます注目を集めています。
指紋生成のための既存のアプローチは、認識モデルをトレーニングするための効果的なデータを提供するための重要な特性である、同じ指の多様な印象を生成する能力に限界があります。
このギャップに対処するために、我々は、生成された指紋の画像の外観 (指紋の種類、取得デバイス、圧力レベルなど) の制御を可能にするアイデンティティ保存画像生成フレームワークである FPGAN-Control を紹介します。
指紋のアイデンティティと外観特性の間のもつれを解くことを促進する、新しい外観損失を導入します。
私たちの実験では、FPGAN-Control モデルのトレーニングに公的に利用可能な NIST SD302 (N2N) データセットを使用しました。
我々は、同一性保持レベル、外観制御の程度、合成ドメインと実際のドメインのギャップの低さの観点から、FPGAN コントロールのメリットを定量的および定性的に実証します。
最後に、FPGAN-Control によって生成された合成データセットのみを使用して認識モデルをトレーニングすると、実際のデータを使用してトレーニングされたモデルと同等またはそれを超える認識精度が得られます。
私たちの知る限り、これはこれを実証した最初の研究です。
要約(オリジナル)
Training fingerprint recognition models using synthetic data has recently gained increased attention in the biometric community as it alleviates the dependency on sensitive personal data. Existing approaches for fingerprint generation are limited in their ability to generate diverse impressions of the same finger, a key property for providing effective data for training recognition models. To address this gap, we present FPGAN-Control, an identity preserving image generation framework which enables control over the fingerprint’s image appearance (e.g., fingerprint type, acquisition device, pressure level) of generated fingerprints. We introduce a novel appearance loss that encourages disentanglement between the fingerprint’s identity and appearance properties. In our experiments, we used the publicly available NIST SD302 (N2N) dataset for training the FPGAN-Control model. We demonstrate the merits of FPGAN-Control, both quantitatively and qualitatively, in terms of identity preservation level, degree of appearance control, and low synthetic-to-real domain gap. Finally, training recognition models using only synthetic datasets generated by FPGAN-Control lead to recognition accuracies that are on par or even surpass models trained using real data. To the best of our knowledge, this is the first work to demonstrate this.
arxiv情報
著者 | Alon Shoshan,Nadav Bhonker,Emanuel Ben Baruch,Ori Nizan,Igor Kviatkovsky,Joshua Engelsma,Manoj Aggarwal,Gerard Medioni |
発行日 | 2023-10-29 14:30:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google