SubFace: Learning with Softmax Approximation for Face Recognition

要約

softmax ベースの損失関数とそのバリアント (cosface、sphereface、arcface など) は、制約のない野生のシーンでの顔認識のパフォーマンスを大幅に向上させます。
これらのアルゴリズムの一般的な方法は、埋め込み機能と線形変換行列の間の乗算で最適化を実行することです。
ただし、ほとんどの場合、埋め込み機能の次元は従来の設計経験に基づいて与えられており、固定サイズを与える場合に機能自体を使用してパフォーマンスを向上させることについてはあまり研究されていません。
この課題に対処するために、このホワイト ペーパーでは、SubFace と呼ばれるソフトマックス近似法を紹介します。これは、部分空間機能を使用して顔認識のパフォーマンスを向上させます。
具体的には、トレーニング中に各バッチで重複しないサブスペース機能を動的に選択し、サブスペース機能を使用してソフトマックスベースの損失から完全な機能を近似するため、顔認識のディープ モデルの識別性を大幅に向上させることができます。
ベンチマーク データセットで実施された包括的な実験は、私たちの方法がバニラ CNN ベースラインのパフォーマンスを大幅に改善できることを示しています。これは、マージンベースの損失を伴うサブスペース戦略の有効性を強く証明しています。

要約(オリジナル)

The softmax-based loss functions and its variants (e.g., cosface, sphereface, and arcface) significantly improve the face recognition performance in wild unconstrained scenes. A common practice of these algorithms is to perform optimizations on the multiplication between the embedding features and the linear transformation matrix. However in most cases, the dimension of embedding features is given based on traditional design experience, and there is less-studied on improving performance using the feature itself when giving a fixed size. To address this challenge, this paper presents a softmax approximation method called SubFace, which employs the subspace feature to promote the performance of face recognition. Specifically, we dynamically select the non-overlapping subspace features in each batch during training, and then use the subspace features to approximate full-feature among softmax-based loss, so the discriminability of the deep model can be significantly enhanced for face recognition. Comprehensive experiments conducted on benchmark datasets demonstrate that our method can significantly improve the performance of vanilla CNN baseline, which strongly proves the effectiveness of subspace strategy with the margin-based loss.

arxiv情報

著者 Hongwei Xu,Suncheng Xiang,Dahong Qian
発行日 2022-08-24 12:31:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク