SASMU: boost the performance of generalized recognition model using synthetic face dataset

要約

現在では、数十年にわたる顔認識技術の発展により、堅牢な顔認識製品の展開が容易になっています。プロファイル画像の検証だけでなく、最先端の手法では、野生の画像にほぼ完璧に対応することができます。しかし、主流の研究結果は、大量のウェブクローリングデータを利用しているため、プライバシー侵害の問題に直面し、プライバシー問題の懸念が急速に高まっています。このため、顔認識モデルを合成データで学習させることで、この苦境から完全に逃れようとしていますが、実画像とIDラベルにアクセスしてモデルを微調整する必要があり、ドメインギャップの深刻な問題に直面しています。本論文では、合成データセットを用いた顔認識のための、シンプルで斬新かつ効果的な方法であるSASMUを提案します。本提案手法は、空間データ増強(SA)とスペクトル混合(SMU)から構成される。我々はまず、顔認識システムを開発するための既存の合成データセットを分析する。そして、合成データを利用する際に、重いデータ増強が性能を高めるのに有効であることを明らかにする。また、これまでの周波数ミックスアップの研究を分析することで、ドメイン汎化のための新しい方法を提案した。広範な実験結果により、LFW、AgeDB-30、CA-LFW、CFP-FP、CP-LFWといったいくつかの一般的なベンチマークで最先端の性能を達成し、SASMUの有効性を実証しました。

要約(オリジナル)

Nowadays, deploying a robust face recognition product becomes easy with the development of face recognition techniques for decades. Not only profile image verification but also the state-of-the-art method can handle the in-the-wild image almost perfectly. However, the concern of privacy issues raise rapidly since mainstream research results are powered by tons of web-crawled data, which faces the privacy invasion issue. The community tries to escape this predicament completely by training the face recognition model with synthetic data but faces severe domain gap issues, which still need to access real images and identity labels to fine-tune the model. In this paper, we propose SASMU, a simple, novel, and effective method for face recognition using a synthetic dataset. Our proposed method consists of spatial data augmentation (SA) and spectrum mixup (SMU). We first analyze the existing synthetic datasets for developing a face recognition system. Then, we reveal that heavy data augmentation is helpful for boosting performance when using synthetic data. By analyzing the previous frequency mixup studies, we proposed a novel method for domain generalization. Extensive experimental results have demonstrated the effectiveness of SASMU, achieving state-of-the-art performance on several common benchmarks, such as LFW, AgeDB-30, CA-LFW, CFP-FP, and CP-LFW.

arxiv情報

著者 Chia-Chun Chung,Pei-Chun Chang,Yong-Sheng Chen,HaoYuan He,Chinson Yeh
発行日 2023-06-02 11:11:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク