Adversarial Masking Contrastive Learning for vein recognition

要約

静脈認証は、その高いセキュリティとプライバシーにより注目を集めています。
最近では、畳み込みニューラル ネットワーク (CNN) やトランスフォーマーなどのディープ ニューラル ネットワークが静脈認識に導入され、最先端のパフォーマンスが実現されています。
しかし、最近の進歩にもかかわらず、指静脈特徴抽出のための既存のソリューションは、トレーニング画像サンプルが不足しているため、依然として最適ではありません。
この問題を克服するために、この論文では、敵対的マスキング対比学習 (AMCL) アプローチを提案します。これは、対照的なエンコーダを代替的に最適化することによって、下流の手のひら静脈認識タスクのためのより堅牢な対比学習モデルをトレーニングするための挑戦的なサンプルを生成します。
学習モデルと一連の潜在変数。
まず、堅牢な敵対的生成ネットワーク (GAN) をトレーニングするために、膨大な数のマスクが生成されます。
訓練されたジェネレーターは、潜在変数を潜在変数空間からマスク空間に変換します。
次に、トレーニングされたジェネレーターを対照学習モデルと組み合わせて AMCL を取得します。ジェネレーターは、コントラスト損失を増やすために困難なマスキング画像を生成し、コントラスト学習モデルは、より堅牢な特徴表現を学習するために、より困難な画像に基づいてトレーニングされます。
トレーニング後、対照学習モデルのトレーニングされたエンコーダーは分類レイヤーと結合されて分類器が構築され、静脈認識用のラベル付きトレーニング データに基づいてさらに微調整されます。
3 つのデータベースでの実験結果は、静脈分類器の識別精度の向上という点で、私たちのアプローチが既存の対照学習アプローチを上回り、最先端の認識結果を達成することを示しています。

要約(オリジナル)

Vein recognition has received increasing attention due to its high security and privacy. Recently, deep neural networks such as Convolutional neural networks (CNN) and Transformers have been introduced for vein recognition and achieved state-of-the-art performance. Despite the recent advances, however, existing solutions for finger-vein feature extraction are still not optimal due to scarce training image samples. To overcome this problem, in this paper, we propose an adversarial masking contrastive learning (AMCL) approach, that generates challenging samples to train a more robust contrastive learning model for the downstream palm-vein recognition task, by alternatively optimizing the encoder in the contrastive learning model and a set of latent variables. First, a huge number of masks are generated to train a robust generative adversarial network (GAN). The trained generator transforms a latent variable from the latent variable space into a mask space. Then, we combine the trained generator with a contrastive learning model to obtain our AMCL, where the generator produces challenging masking images to increase the contrastive loss and the contrastive learning model is trained based on the harder images to learn a more robust feature representation. After training, the trained encoder in the contrastive learning model is combined with a classification layer to build a classifier, which is further fine-tuned on labeled training data for vein recognition. The experimental results on three databases demonstrate that our approach outperforms existing contrastive learning approaches in terms of improving identification accuracy of vein classifiers and achieves state-of-the-art recognition results.

arxiv情報

著者 Huafeng Qin,Yiquan Wu,Mounim A. El-Yacoubi,Jun Wang,Guangxiang Yang
発行日 2024-01-16 03:09:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク