Privacy-Preserving Face Recognition in Hybrid Frequency-Color Domain

要約

顔認識テクノロジーは、現実のさまざまなアプリケーションに導入されています。
最も洗練されたディープ ラーニング ベースの顔認識システムは、高精度を達成するために、複雑なディープ ニューラル ネットワークを通じて何百万もの顔画像をトレーニングすることに依存しています。
クライアントがモデル推論にアクセスするために顔画像をサービス プロバイダーにアップロードすることは非常に一般的です。
ただし、顔画像は各ユーザーの身元情報に関連付けられた機密性の高い生体属性の一種です。
生の顔画像をサービスプロバイダーに直接公開すると、ユーザーのプライバシーが脅かされます。
顔認識に対する現在のプライバシー保護アプローチは、モデル入力の視覚情報を隠すか、モデル出力の顔の埋め込みを保護することに重点を置いています。
認識精度の顕著な低下は、ほとんどの方法にとって落とし穴です。
この論文では、周波数領域での顔認識の入力次元を削減するためのハイブリッド周波数-色融合アプローチを提案します。
さらに、差分プライバシー ノイズを追加した後の大幅な精度低下を軽減するために、まばらな色情報も導入されています。
さらに、アイデンティティ固有の埋め込みマッピング スキームが適用され、アイデンティティ間の距離を拡大することで元の顔の埋め込みが保護されます。
最後に、モデル推論中に埋め込み距離を安全に計算するために、安全なマルチパーティ計算が実装されています。
提案された方法は、広く使用されている複数の検証データセットで良好に機能します。
さらに、1:N 検証シナリオにおける最新技術よりも約 2.6% ~ 4.2% 高い精度を備えています。

要約(オリジナル)

Face recognition technology has been deployed in various real-life applications. The most sophisticated deep learning-based face recognition systems rely on training millions of face images through complex deep neural networks to achieve high accuracy. It is quite common for clients to upload face images to the service provider in order to access the model inference. However, the face image is a type of sensitive biometric attribute tied to the identity information of each user. Directly exposing the raw face image to the service provider poses a threat to the user’s privacy. Current privacy-preserving approaches to face recognition focus on either concealing visual information on model input or protecting model output face embedding. The noticeable drop in recognition accuracy is a pitfall for most methods. This paper proposes a hybrid frequency-color fusion approach to reduce the input dimensionality of face recognition in the frequency domain. Moreover, sparse color information is also introduced to alleviate significant accuracy degradation after adding differential privacy noise. Besides, an identity-specific embedding mapping scheme is applied to protect original face embedding by enlarging the distance among identities. Lastly, secure multiparty computation is implemented for safely computing the embedding distance during model inference. The proposed method performs well on multiple widely used verification datasets. Moreover, it has around 2.6% to 4.2% higher accuracy than the state-of-the-art in the 1:N verification scenario.

arxiv情報

著者 Dong Han,Yong Li,Joachim Denzler
発行日 2024-01-24 11:27:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク