Generative Domain Adaptation for Face Anti-Spoofing

要約

教師なしドメイン適応(UDA)に基づく顔のなりすまし防止(FAS)アプローチは、ターゲットシナリオの有望なパフォーマンスにより、ますます注目を集めています。
ほとんどの既存のUDAFASメソッドは、通常、セマンティック高レベル機能の分散を調整することにより、トレーニングされたモデルをターゲットドメインに適合させます。
ただし、ラベルのないターゲットドメインの監視が不十分であり、低レベルの機能アラインメントを無視すると、既存のメソッドのパフォーマンスが低下します。
これらの問題に対処するために、ターゲットデータをモデルに直接適合させる、つまり、画像変換を介してターゲットデータをソースドメインスタイルに定型化し、さらに定型化されたデータを十分にトレーニングされたデータにフィードするUDAFASの新しい視点を提案します。
分類のためのソースモデル。
提案されたGenerativeDomainAdaptation(GDA)フレームワークは、慎重に設計された2つの整合性制約を組み合わせたものです。1)ドメイン間ニューラル統計の整合性は、ジェネレーターがドメイン間ギャップを狭めるように導きます。
2)デュアルレベルのセマンティック整合性により、定型化された画像のセマンティック品質が保証されます。
さらに、ドメイン内スペクトルの取り違えを提案して、ターゲットデータの分布をさらに拡張し、一般化を確実にし、ドメイン内のギャップを減らします。
広範な実験と視覚化は、最先端の方法に対する私たちの方法の有効性を示しています。

要約(オリジナル)

Face anti-spoofing (FAS) approaches based on unsupervised domain adaption (UDA) have drawn growing attention due to promising performances for target scenarios. Most existing UDA FAS methods typically fit the trained models to the target domain via aligning the distribution of semantic high-level features. However, insufficient supervision of unlabeled target domains and neglect of low-level feature alignment degrade the performances of existing methods. To address these issues, we propose a novel perspective of UDA FAS that directly fits the target data to the models, i.e., stylizes the target data to the source-domain style via image translation, and further feeds the stylized data into the well-trained source model for classification. The proposed Generative Domain Adaptation (GDA) framework combines two carefully designed consistency constraints: 1) Inter-domain neural statistic consistency guides the generator in narrowing the inter-domain gap. 2) Dual-level semantic consistency ensures the semantic quality of stylized images. Besides, we propose intra-domain spectrum mixup to further expand target data distributions to ensure generalization and reduce the intra-domain gap. Extensive experiments and visualizations demonstrate the effectiveness of our method against the state-of-the-art methods.

arxiv情報

著者 Qianyu Zhou,Ke-Yue Zhang,Taiping Yao,Ran Yi,Kekai Sheng,Shouhong Ding,Lizhuang Ma
発行日 2022-07-20 16:24:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク