要約
近年、深い畳み込みニューラルネットワークの出現により、コンピュータービジョンにおける顕著な研究焦点として顔認識が位置付けられています。
マージンベース、ハードサンプルマイニングベース、ハイブリッドアプローチなどの従来の損失関数は、顕著なパフォーマンスの改善を達成し、トレーニングを最適化するためのカリキュラム学習をレバレバルするものもあります。
ただし、これらの方法は、ハードサンプルの難易度を効果的に定量化するのに不十分なことがよくあります。
これに対処するために、サンプルの埋め込み機能とその基本的な真実のクラスセンターとの間に角度のサインを新しい難易度メトリックとして導入する適応サイン(アダシン)損失関数を提案します。
このメトリックは、ハードサンプルの正確かつ効果的な罰則を可能にします。
カリキュラム学習を組み込むことにより、モデルは異なるトレーニング段階で分類境界を動的に調整します。
以前の適応マージン損失関数とは異なり、アダシンはハードサンプルの正と負のコサインの両方の類似性に適用される二重適応ペナルティを導入します。
この設計は、より強い制約を課し、クラス内のコンパクトさとクラス間分離性を高めます。
デュアル適応ペナルティとカリキュラム学習の組み合わせは、適切に設計された難易度メトリックによって導かれます。
これにより、モデルは後のトレーニング段階でハードサンプルにより効果的に焦点を合わせ、高度に識別的な顔の特徴を抽出することができます。
8つのベンチマークにわたる広範な実験は、アダシンが他の最先端の方法と比較して優れた精度を達成することを示しています。
要約(オリジナル)
In recent years, the emergence of deep convolutional neural networks has positioned face recognition as a prominent research focus in computer vision. Traditional loss functions, such as margin-based, hard-sample mining-based, and hybrid approaches, have achieved notable performance improvements, with some leveraging curriculum learning to optimize training. However, these methods often fall short in effectively quantifying the difficulty of hard samples. To address this, we propose Adaptive Sine (AdaSin) loss function, which introduces the sine of the angle between a sample’s embedding feature and its ground-truth class center as a novel difficulty metric. This metric enables precise and effective penalization of hard samples. By incorporating curriculum learning, the model dynamically adjusts classification boundaries across different training stages. Unlike previous adaptive-margin loss functions, AdaSin introduce a dual adaptive penalty, applied to both the positive and negative cosine similarities of hard samples. This design imposes stronger constraints, enhancing intra-class compactness and inter-class separability. The combination of the dual adaptive penalty and curriculum learning is guided by a well-designed difficulty metric. It enables the model to focus more effectively on hard samples in later training stages, and lead to the extraction of highly discriminative face features. Extensive experiments across eight benchmarks demonstrate that AdaSin achieves superior accuracy compared to other state-of-the-art methods.
arxiv情報
著者 | Qiqi Guo,Zhuowen Zheng,Guanghua Yang,Zhiquan Liu,Xiaofan Li,Jianqing Li,Jinyu Tian,Xueyuan Gong |
発行日 | 2025-03-05 14:11:13+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google