要約
タイトル:顔偽装検知のためのインスタンスに適したドメイン汎化
要約:
– ドメイン汎化(DG)を基にした顔偽装検知(FAS)は最近研究され、未知のシナリオにおける汎化性能の向上が期待されている。
– 以前の方法は、それぞれのドメインの分布を整列させ、ドメインに依存しない表現を学ぶためにドメインラベルに頼っている。しかしながら、人工的なドメインラベルは荒く、主観的であり、現実のドメイン分布を正確に反映することはできない。
– さらに、このようなドメインに依存する方法はドメインレベルの整列に注目しており、学習された表現がドメインのスタイルに鈍感であることを保証するには、十分に細かいものではないという問題がある。
– これらの問題を解決するために、本研究では、ドメインラベルが必要なく、インスタンスレベルでフィーチャの整列を行うDG FASの新しい視点を提案する。
– 具体的には、インスタンスに適応したドメイン汎化フレームワークを提案し、インスタンス固有のスタイルの影響を弱化し、一般化可能なフィーチャを学習する。Asymmetric Instance Adaptive Whiteningを提案し、スタイルによって影響を受けるフィーチャの相関関係を自動的に排除し、汎化を向上させる。さらに、Dynamic Kernel GeneratorとCategorical Style Assemblyを提案し、最初にインスタンス固有のフィーチャを抽出し、スタイルの多様化した大きなスタイルシフトを生成して、スタイルに鈍感なフィーチャの学習をさらに促進する。
– 幅広い実験と分析により、本手法が他の最先端の手法よりも優れていることがわかった。本研究のコードは公式に https://github.com/qianyuzqy/IADG から入手できる。
要約(オリジナル)
Face anti-spoofing (FAS) based on domain generalization (DG) has been recently studied to improve the generalization on unseen scenarios. Previous methods typically rely on domain labels to align the distribution of each domain for learning domain-invariant representations. However, artificial domain labels are coarse-grained and subjective, which cannot reflect real domain distributions accurately. Besides, such domain-aware methods focus on domain-level alignment, which is not fine-grained enough to ensure that learned representations are insensitive to domain styles. To address these issues, we propose a novel perspective for DG FAS that aligns features on the instance level without the need for domain labels. Specifically, Instance-Aware Domain Generalization framework is proposed to learn the generalizable feature by weakening the features’ sensitivity to instance-specific styles. Concretely, we propose Asymmetric Instance Adaptive Whitening to adaptively eliminate the style-sensitive feature correlation, boosting the generalization. Moreover, Dynamic Kernel Generator and Categorical Style Assembly are proposed to first extract the instance-specific features and then generate the style-diversified features with large style shifts, respectively, further facilitating the learning of style-insensitive features. Extensive experiments and analysis demonstrate the superiority of our method over state-of-the-art competitors. Code will be publicly available at https://github.com/qianyuzqy/IADG.
arxiv情報
著者 | Qianyu Zhou,Ke-Yue Zhang,Taiping Yao,Xuequan Lu,Ran Yi,Shouhong Ding,Lizhuang Ma |
発行日 | 2023-04-12 06:41:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI