Multi-domain Learning for Updating Face Anti-spoofing Models

要約

タイトル: 顔のアンチスプーフィングモデルの更新のためのマルチドメイン学習
要約:
– 本研究では、事前学習されたアンチスプーフィング(FAS)モデルを、ターゲットドメインのデータのみを使用して更新し、ソースドメインとターゲットドメインの両方で同じように機能するようにするマルチドメイン学習(MD-FAS)に焦点を当てる。
– MD-FASのための新しいモデルを提案し、新しいドメインデータを学習する際に適応性が高いモデルでありながら、学習中の忘却問題を解決する。
– 提案手法は、スプーフ画像内のスプーフトレースを特定する「スプーフ領域推定器(SRE)」モジュールを開発する。SREは、単一で詳細でピクセルごとの推定を非監督学習で生成するため、従来の多数の出力または低解像度のバイナリマスクを生成する手法と比較して優れている。
– また、ソースモデルからの知識を転送し、異なるFASモデルにシームレスに統合する「FAS-wrapper」という新しいフレームワークを提案する。
– 最後に、SIW、SIW-Mv2、およびOulu-NPUに基づく新しいベンチマークを構築し、スプーフタイプ、年齢、民族、照明などの観点で異なるソースドメインとターゲットドメインを評価するための4つの異なるプロトコルを紹介する。
– ベンチマーク結果は、提案手法が従来手法よりも優れた性能を発揮することを示しており、提案手法のコードとSIW-Mv2も公開されている。

要約(オリジナル)

In this work, we study multi-domain learning for face anti-spoofing(MD-FAS), where a pre-trained FAS model needs to be updated to perform equally well on both source and target domains while only using target domain data for updating. We present a new model for MD-FAS, which addresses the forgetting issue when learning new domain data, while possessing a high level of adaptability. First, we devise a simple yet effective module, called spoof region estimator(SRE), to identify spoof traces in the spoof image. Such spoof traces reflect the source pre-trained model’s responses that help upgraded models combat catastrophic forgetting during updating. Unlike prior works that estimate spoof traces which generate multiple outputs or a low-resolution binary mask, SRE produces one single, detailed pixel-wise estimate in an unsupervised manner. Secondly, we propose a novel framework, named FAS-wrapper, which transfers knowledge from the pre-trained models and seamlessly integrates with different FAS models. Lastly, to help the community further advance MD-FAS, we construct a new benchmark based on SIW, SIW-Mv2 and Oulu-NPU, and introduce four distinct protocols for evaluation, where source and target domains are different in terms of spoof type, age, ethnicity, and illumination. Our proposed method achieves superior performance on the MD-FAS benchmark than previous methods. Our code and newly curated SIW-Mv2 are publicly available.

arxiv情報

著者 Xiao Guo,Yaojie Liu,Anil Jain,Xiaoming Liu
発行日 2023-04-17 03:47:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク