FIVA: Facial Image and Video Anonymization and Anonymization Defense

要約

この論文では、画像とビデオにおける顔の匿名化 (略称 FIVA) の新しいアプローチを紹介します。
私たちが提案する方法は、私たちが提案するアイデンティティ追跡により、フレーム全体にわたって一貫して同じ顔の匿名化を維持することができ、元の顔との強い違いを保証します。
FIVA では、他人受入率 0.001 に対して真陽性者 0 人が許容されます。
私たちの研究では、再構築攻撃の重要なセキュリティ問題を考慮し、再構築攻撃を妨害するための敵対的ノイズ、均一ノイズ、パラメータ ノイズを調査します。
この点において、FIVA の拡張性を実証するために、これらのプライバシーの脅威に対してさまざまな防御および保護方法を適用します。
これに加えて、再構築攻撃モデルがディープフェイクの検出に使用できることも示します。
最後になりましたが、FIVA が単一のターゲット画像上で純粋にトレーニングされた顔の交換をどのように可能にするかを示す実験結果を提供します。

要約(オリジナル)

In this paper, we present a new approach for facial anonymization in images and videos, abbreviated as FIVA. Our proposed method is able to maintain the same face anonymization consistently over frames with our suggested identity-tracking and guarantees a strong difference from the original face. FIVA allows for 0 true positives for a false acceptance rate of 0.001. Our work considers the important security issue of reconstruction attacks and investigates adversarial noise, uniform noise, and parameter noise to disrupt reconstruction attacks. In this regard, we apply different defense and protection methods against these privacy threats to demonstrate the scalability of FIVA. On top of this, we also show that reconstruction attack models can be used for detection of deep fakes. Last but not least, we provide experimental results showing how FIVA can even enable face swapping, which is purely trained on a single target image.

arxiv情報

著者 Felix Rosberg,Eren Erdal Aksoy,Cristofer Englund,Fernando Alonso-Fernandez
発行日 2023-09-08 09:34:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク