How Knowledge Distillation Mitigates the Synthetic Gap in Fair Face Recognition

要約

知識蒸留 (KD) 戦略の機能を活用して、最近の顔認識データセットの撤回に対抗する戦略を考案します。
実際のデータセットでトレーニングされた事前トレーニング済みの教師モデルを考慮すると、合成データセット、または実際のデータセットと合成データセットを組み合わせて慎重に利用して、この教師から小さな生徒に知識を抽出すると、驚くべき結果が得られることがわかります。
この意味で、KD を使用した場合と使用しない場合の 33 の異なるモデルを、異なるデータセット、異なるアーキテクチャと損失でトレーニングしました。
そして、私たちの調査結果は一貫しており、KD を使用すると、すべての民族にわたってパフォーマンスが向上し、偏見が減少します。
さらに、実際のデータセットと合成データセットの間のパフォーマンスのギャップを軽減するのにも役立ちます。
このアプローチは合成データ トレーニングの制限に対処し、顔認識モデルの精度と公平性の両方を向上させます。

要約(オリジナル)

Leveraging the capabilities of Knowledge Distillation (KD) strategies, we devise a strategy to fight the recent retraction of face recognition datasets. Given a pretrained Teacher model trained on a real dataset, we show that carefully utilising synthetic datasets, or a mix between real and synthetic datasets to distil knowledge from this teacher to smaller students can yield surprising results. In this sense, we trained 33 different models with and without KD, on different datasets, with different architectures and losses. And our findings are consistent, using KD leads to performance gains across all ethnicities and decreased bias. In addition, it helps to mitigate the performance gap between real and synthetic datasets. This approach addresses the limitations of synthetic data training, improving both the accuracy and fairness of face recognition models.

arxiv情報

著者 Pedro C. Neto,Ivona Colakovic,Sašo Karakatič,Ana F. Sequeira
発行日 2024-08-30 16:35:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク