Deep Variational Privacy Funnel: General Modeling with Applications in Face Recognition

要約

この研究では、情報理論のプライバシー ファネル (PF) モデルを利用して、エンドツーエンドのトレーニング フレームワークを使用したプライバシー保護表現学習の方法を開発します。
私たちは難読化と実用性の間のトレードオフに厳密に対処します。
どちらも対数損失によって定量化され、この尺度は自己情報損失としても認識されます。
この探求は、情報理論的なプライバシーと表現学習の間の相互作用を深め、識別モデルと生成モデルの両方のデータ保護メカニズムに対する実質的な洞察を提供します。
重要なのは、私たちのモデルを最先端の顔認識システムに適用していることです。
このモデルは、生の顔画像から派生または洗練された埋め込みに至るまで、さまざまな入力に対する適応性を実証し、分類、再構成、生成などのタスクに適しています。

要約(オリジナル)

In this study, we harness the information-theoretic Privacy Funnel (PF) model to develop a method for privacy-preserving representation learning using an end-to-end training framework. We rigorously address the trade-off between obfuscation and utility. Both are quantified through the logarithmic loss, a measure also recognized as self-information loss. This exploration deepens the interplay between information-theoretic privacy and representation learning, offering substantive insights into data protection mechanisms for both discriminative and generative models. Importantly, we apply our model to state-of-the-art face recognition systems. The model demonstrates adaptability across diverse inputs, from raw facial images to both derived or refined embeddings, and is competent in tasks such as classification, reconstruction, and generation.

arxiv情報

著者 Behrooz Razeghi,Parsa Rahimi,Sébastien Marcel
発行日 2024-01-26 11:32:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.IT, cs.LG, math.IT パーマリンク