Boosting Unconstrained Face Recognition with Targeted Style Adversary

要約

ディープ顔認識モデルは顕著なパフォーマンスを示していますが、トレーニング データを超えたドメインからの入力に対しては苦戦することがよくあります。
最近の試みは、計算コストが高く、本質的に困難な画像生成モジュールの画像空間拡張に依存することで、トレーニング セットを拡張することを目的としています。
直交する方向では、ラベル付きセットとラベルなしセットにわたるインスタンス レベルの特徴統計間を補間することでトレーニング データを拡張する、シンプルかつ効果的な方法を紹介します。
Targeted Style Adversary (TSA) と呼ばれる私たちの方法は、(i) 入力ドメインが特徴統計に反映されること、および (ii) 顔認識モデルのパフォーマンスがスタイル情報によって影響を受けることの 2 つの観察によって動機付けられています。
ラベルのないスタイルに移行すると、暗黙的に困難なトレーニング インスタンスが合成されます。
私たちは、ラベル付きインスタンスの固有の ID 関連情報を保持するようにフレームワークを制約するための認識可能性メトリックを考案しました。
私たちのメソッドの有効性は、制約のないベンチマークでの評価を通じて実証されており、競合他社を上回るか同等のパフォーマンスを示しながら、トレーニング速度が 70% 近く向上し、メモリ消費量が 40% 削減されています。

要約(オリジナル)

While deep face recognition models have demonstrated remarkable performance, they often struggle on the inputs from domains beyond their training data. Recent attempts aim to expand the training set by relying on computationally expensive and inherently challenging image-space augmentation of image generation modules. In an orthogonal direction, we present a simple yet effective method to expand the training data by interpolating between instance-level feature statistics across labeled and unlabeled sets. Our method, dubbed Targeted Style Adversary (TSA), is motivated by two observations: (i) the input domain is reflected in feature statistics, and (ii) face recognition model performance is influenced by style information. Shifting towards an unlabeled style implicitly synthesizes challenging training instances. We devise a recognizability metric to constraint our framework to preserve the inherent identity-related information of labeled instances. The efficacy of our method is demonstrated through evaluations on unconstrained benchmarks, outperforming or being on par with its competitors while offering nearly a 70\% improvement in training speed and 40\% less memory consumption.

arxiv情報

著者 Mohammad Saeed Ebrahimi Saadabadi,Sahar Rahimi Malakshan,Seyed Rasoul Hosseini,Nasser M. Nasrabadi
発行日 2024-08-14 16:13:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク