Distilling Facial Knowledge With Teacher-Tasks: Semantic-Segmentation-Features For Pose-Invariant Face-Recognition

要約

本論文では、セマンティックセグメンテーション機能を用いて顔認識の姿勢不変性を向上させる新しいアプローチを実証する。提案するSeg-Distilled-IDネットワークは、識別タスクと意味的セグメンテーションタスクを共同で学習し、セグメンテーションタスクを「蒸留」する(MobileNetエンコーダ)。一般に公開されている頭部姿勢の変化を強調したデータセットを用いて、3つの最新エンコーダに対する性能のベンチマークを行う。実験によると、Seg-Distilled-IDネットワークは、ResNet-101の81.6%、VGG-19の96.1%、InceptionV3の96.3%に対して、99.9%のテスト精度を達成し、顕著なロバスト性を示すことが分かりました。これは、上位エンコーダの推論パラメータの約10分の1を使用して達成されたものです。これらの結果は、セマンティックセグメンテーションの特徴を抽出することで、顔認識の姿勢不変性に効率的に対処できることを示しています。

要約(オリジナル)

This paper demonstrates a novel approach to improve face-recognition pose-invariance using semantic-segmentation features. The proposed Seg-Distilled-ID network jointly learns identification and semantic-segmentation tasks, where the segmentation task is then ‘distilled’ (MobileNet encoder). Performance is benchmarked against three state-of-the-art encoders on a publicly available data-set emphasizing head-pose variations. Experimental evaluations show the Seg-Distilled-ID network shows notable robustness benefits, achieving 99.9% test-accuracy in comparison to 81.6% on ResNet-101, 96.1% on VGG-19 and 96.3% on InceptionV3. This is achieved using approximately one-tenth of the top encoder’s inference parameters. These results demonstrate distilling semantic-segmentation features can efficiently address face-recognition pose-invariance.

arxiv情報

著者 Ali Hassani,Zaid El Shair,Rafi Ud Duala Refat,Hafiz Malik
発行日 2022-09-02 15:24:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク