GB-CosFace: Rethinking Softmax-based Face Recognition from the Perspective of Open Set Classification

要約

最先端の顔認識方法は通常、マルチ分類パイプラインを使用し、最適化のためにソフトマックス ベースの損失を採用します。
これらの方法は大きな成功を収めましたが、オープン セット分類の観点からは、ソフトマックス ベースの損失には制限があります。トレーニング フェーズの複数分類の目的は、オープン セット分類テストの目的と厳密には一致しません。
この論文では、グローバル境界 CosFace (GB-CosFace) と名付けられた新しい損失を導出します。
当社の GB-CosFace は、2 つの顔サンプルが同じ ID に属しているかどうかを判断するための適応型グローバル境界を導入し、オープン セット分類の観点から最適化の目標がテスト プロセスと一致するようにします。
一方、損失の定式化はソフトマックスベースの損失から派生しているため、GB-CosFace はソフトマックスベースの損失の優れた特性を保持しており、CosFace は提案された損失の特殊なケースであることが証明されています。
提案された GB-CosFace を幾何学的に分析し、説明します。
複数の顔認識ベンチマークに関する包括的な実験は、提案された GB-CosFace が主流の顔認識タスクにおける現在の最先端の顔認識損失よりも優れていることを示しています。
CosFace と比較すると、当社の GB-CosFace は IJB-C ベンチマークで TAR@FAR=1e-6、1e-5、1e-4 で 1.58%、0.57%、0.28% 向上しています。

要約(オリジナル)

State-of-the-art face recognition methods typically take the multi-classification pipeline and adopt the softmax-based loss for optimization. Although these methods have achieved great success, the softmax-based loss has its limitation from the perspective of open set classification: the multi-classification objective in the training phase does not strictly match the objective of open set classification testing. In this paper, we derive a new loss named global boundary CosFace (GB-CosFace). Our GB-CosFace introduces an adaptive global boundary to determine whether two face samples belong to the same identity so that the optimization objective is aligned with the testing process from the perspective of open set classification. Meanwhile, since the loss formulation is derived from the softmax-based loss, our GB-CosFace retains the excellent properties of the softmax-based loss, and CosFace is proved to be a special case of the proposed loss. We analyze and explain the proposed GB-CosFace geometrically. Comprehensive experiments on multiple face recognition benchmarks indicate that the proposed GB-CosFace outperforms current state-of-the-art face recognition losses in mainstream face recognition tasks. Compared to CosFace, our GB-CosFace improves 1.58%, 0.57%, and 0.28% at TAR@FAR=1e-6, 1e-5, 1e-4 on IJB-C benchmark.

arxiv情報

著者 Lizhe Liu,Mingqiang Chen,Xiaohao Chen,Siyu Zhu,Ping Tan
発行日 2023-02-10 09:39:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク