要約
深層学習ベースの顔認識モデルは、計算コストの高い完全精度の浮動小数点ネットワークを利用することにより、深層ニューラルネットワークの一般的な傾向に従います。
フルプレシジョンモデルには大容量のメモリが必要なため、計算要件に制約されるユースケースでこのようなネットワークを展開することは、多くの場合実行不可能です。
以前のコンパクトな顔認識アプローチは、特別なコンパクトなアーキテクチャを設計し、実際のトレーニングデータを使用してそれらをゼロからトレーニングするために提案されました。これは、プライバシーの懸念から実際のシナリオでは利用できない場合があります。
この作業では、低ビットの高精度フォーマットモデルの量子化に基づくQuantFaceソリューションを紹介します。
QuantFaceは、特定のアーキテクチャを設計したり、実際のトレーニングデータにアクセスしたりすることなく、既存の顔認識モデルに必要な計算コストを削減します。
QuantFaceは、プライバシーに配慮した合成顔データを量子化プロセスに導入して、潜在的なプライバシーの懸念や実際のトレーニングデータへのアクセスに関連する問題を軽減します。
7つのベンチマークと4つのネットワークアーキテクチャでの広範な評価実験を通じて、QuantFaceは、実際のトレーニングデータセットにアクセスすることなく、完全精度モデルの検証パフォーマンスを大幅に維持しながら、モデルサイズを最大5倍まで正常に縮小できることを示します。
要約(オリジナル)
Deep learning-based face recognition models follow the common trend in deep neural networks by utilizing full-precision floating-point networks with high computational costs. Deploying such networks in use-cases constrained by computational requirements is often infeasible due to the large memory required by the full-precision model. Previous compact face recognition approaches proposed to design special compact architectures and train them from scratch using real training data, which may not be available in a real-world scenario due to privacy concerns. We present in this work the QuantFace solution based on low-bit precision format model quantization. QuantFace reduces the required computational cost of the existing face recognition models without the need for designing a particular architecture or accessing real training data. QuantFace introduces privacy-friendly synthetic face data to the quantization process to mitigate potential privacy concerns and issues related to the accessibility to real training data. Through extensive evaluation experiments on seven benchmarks and four network architectures, we demonstrate that QuantFace can successfully reduce the model size up to 5x while maintaining, to a large degree, the verification performance of the full-precision model without accessing real training datasets.
arxiv情報
著者 | Fadi Boutros,Naser Damer,Arjan Kuijper |
発行日 | 2022-06-21 16:51:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google