Enhancing Low-resolution Face Recognition with Feature Similarity Knowledge Distillation

要約

この研究では、高解像度 (HR) 画像から得られた知識を使用して、低解像度 (LR) 顔認識のパフォーマンスを向上させるために、特徴知識蒸留フレームワークを導入します。
提案されたフレームワークは、それらの間の距離を縮めることによって、有益な機能を HR でトレーニングされたネットワークから LR でトレーニングされたネットワークに転送します。
HR と LR の特徴を効果的に整列させるために、距離メトリックとしてコサイン類似度測定が採用されました。
このアプローチは、L_p 距離メトリックを使用する従来の知識抽出フレームワークとは異なり、異なる解像度のフィーチャ間の距離を縮めたときにうまく収束するという利点があります。
私たちのフレームワークは、HR 画像で強力なパフォーマンスを維持しながら、AgeDB-30 ベンチマークでこれまでの最先端の方法よりも 3% の改善を達成しました。
距離メトリックとしての余弦類似度の有効性は、統計分析によって検証され、LR 画像が頻繁に発生する現実世界のアプリケーションに対する有望なソリューションとなっています。
コードと事前トレーニング済みのモデルは、GitHub で公開されます。

要約(オリジナル)

In this study, we introduce a feature knowledge distillation framework to improve low-resolution (LR) face recognition performance using knowledge obtained from high-resolution (HR) images. The proposed framework transfers informative features from an HR-trained network to an LR-trained network by reducing the distance between them. A cosine similarity measure was employed as a distance metric to effectively align the HR and LR features. This approach differs from conventional knowledge distillation frameworks, which use the L_p distance metrics and offer the advantage of converging well when reducing the distance between features of different resolutions. Our framework achieved a 3% improvement over the previous state-of-the-art method on the AgeDB-30 benchmark without bells and whistles, while maintaining a strong performance on HR images. The effectiveness of cosine similarity as a distance metric was validated through statistical analysis, making our approach a promising solution for real-world applications in which LR images are frequently encountered. The code and pretrained models will be publicly available on GitHub.

arxiv情報

著者 Sungho Shin,Yeonguk Yu,Kyoobin Lee
発行日 2023-03-08 16:11:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク