Flexible-Modal Face Anti-Spoofing: A Benchmark

要約

顔認識スプーフィング (FAS) は、プレゼンテーション攻撃から顔認識システムを保護する上で重要な役割を果たします。
成熟したカメラ センサー、シングル モーダル (RGB) およびマルチ モーダル (RGB + 深度など) の恩恵を受けて、FAS は、センサー/モダリティの構成が異なるさまざまなシナリオで適用されています。
既存のシングルモーダルおよびマルチモーダル FAS メソッドは通常、考えられるモダリティ シナリオごとにモデルを個別にトレーニングして展開しますが、これは冗長で非効率的である可能性があります。
統一されたモデルをトレーニングし、さまざまなモダリティ シナリオで柔軟に展開できますか?
この論文では、「すべての人に 1 つのトレーニングを行う」という原則を使用して、最初の柔軟なモーダル FAS ベンチマークを確立します。
具体的には、トレーニング済みのマルチモーダル (RGB+Depth+IR) FAS モデルを使用して、4 つの柔軟なモーダル サブプロトコル (RGB、RGB+Depth、RGB+IR、RGB
+深さ+IR)。
また、柔軟なモーダル FAS の一般的なディープ モデルと機能融合戦略も調査します。
この新しいベンチマークが、マルチモーダル FAS の将来の研究を促進することを願っています。
プロトコルとコードは、https://github.com/ZitongYu/Flex-Modal-FAS で入手できます。

要約(オリジナル)

Face anti-spoofing (FAS) plays a vital role in securing face recognition systems from presentation attacks. Benefitted from the maturing camera sensors, single-modal (RGB) and multi-modal (e.g., RGB+Depth) FAS has been applied in various scenarios with different configurations of sensors/modalities. Existing single- and multi-modal FAS methods usually separately train and deploy models for each possible modality scenario, which might be redundant and inefficient. Can we train a unified model, and flexibly deploy it under various modality scenarios? In this paper, we establish the first flexible-modal FAS benchmark with the principle `train one for all’. To be specific, with trained multi-modal (RGB+Depth+IR) FAS models, both intra- and cross-dataset testings are conducted on four flexible-modal sub-protocols (RGB, RGB+Depth, RGB+IR, and RGB+Depth+IR). We also investigate prevalent deep models and feature fusion strategies for flexible-modal FAS. We hope this new benchmark will facilitate the future research of the multi-modal FAS. The protocols and codes are available at https://github.com/ZitongYu/Flex-Modal-FAS.

arxiv情報

著者 Zitong Yu,Ajian Liu,Chenxu Zhao,Kevin H. M. Cheng,Xu Cheng,Guoying Zhao
発行日 2023-03-15 16:04:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク