Mobile Contactless Palmprint Recognition: Use of Multiscale, Multimodel Embeddings

要約

非接触掌紋は、グローバルな識別特徴とローカルな識別特徴の両方で構成されます。
これまでの研究のほとんどは、掌紋照合のためにグローバルな特徴またはローカルな特徴を単独で抽出することに焦点を当てていましたが、この研究では、掌紋照合の精度を向上させるためにグローバルな特徴とローカルな特徴を組み合わせた新しいフレームワークが導入されました。
この研究では、深層学習の最近の進歩を活用して、ビジョン トランスフォーマー (ViT) と畳み込みニューラル ネットワーク (CNN) を統合して、相補的なローカルおよびグローバルの特徴を抽出します。
次に、Palm-ID と呼ばれる、モバイルベースのエンドツーエンドの掌紋認識システムが開発されます。
ViT および CNN 機能に加えて、Palm-ID には掌紋強化モジュールと効率的な次元削減 (より高速な照合のため) が組み込まれています。
Palm-ID は精度とレイテンシーのバランスをとっており、サイズ 516 バイトのテンプレートを抽出するのに必要な時間はわずか 18 ミリ秒です。これは、128 バイトを使用する AMD EPYC 7543 32 コア CPU 上で、10,000 の掌紋ギャラリーに対して 0.33 ミリ秒で効率的に検索できます。
スレッド。
クロスデータベースマッチングプロトコルと大規模な運用データセットの評価は、提案された方法の堅牢性を実証し、新しく収集された時間分離されたデータセットで FAR=0.01% で 98.06% の TAR を達成しました。
エンドツーエンド システムの実際的な展開を示すために、ユーザーのプライバシーとセキュリティを強化するために、認識パイプライン全体がモバイル デバイス内に組み込まれています。

要約(オリジナル)

Contactless palmprints are comprised of both global and local discriminative features. Most prior work focuses on extracting global features or local features alone for palmprint matching, whereas this research introduces a novel framework that combines global and local features for enhanced palmprint matching accuracy. Leveraging recent advancements in deep learning, this study integrates a vision transformer (ViT) and a convolutional neural network (CNN) to extract complementary local and global features. Next, a mobile-based, end-to-end palmprint recognition system is developed, referred to as Palm-ID. On top of the ViT and CNN features, Palm-ID incorporates a palmprint enhancement module and efficient dimensionality reduction (for faster matching). Palm-ID balances the trade-off between accuracy and latency, requiring just 18ms to extract a template of size 516 bytes, which can be efficiently searched against a 10,000 palmprint gallery in 0.33ms on an AMD EPYC 7543 32-Core CPU utilizing 128-threads. Cross-database matching protocols and evaluations on large-scale operational datasets demonstrate the robustness of the proposed method, achieving a TAR of 98.06% at FAR=0.01% on a newly collected, time-separated dataset. To show a practical deployment of the end-to-end system, the entire recognition pipeline is embedded within a mobile device for enhanced user privacy and security.

arxiv情報

著者 Steven A. Grosz,Akash Godbole,Anil K. Jain
発行日 2024-01-16 04:42:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク