Fairly Private: Investigating The Fairness of Visual Privacy Preservation Algorithms

要約

カメラ監視と顔認識によってもたらされるプライバシー リスクが増大するにつれて、プライバシー保護アルゴリズムの研究も増大しています。
これらの中で、視覚的プライバシー保護アルゴリズムは、プライバシーに敏感な領域を難読化することにより、視覚的対象に身体的プライバシーを与えようとします。
表現型にまたがる顔認識システムの異なるパフォーマンスは多くの研究の対象ですが、その対応物であるプライバシー保護は、公平性の観点から一般的に分析されていません。
この論文では、難読化された画像に対する顔認識モデルのパフォーマンスを通じて、一般的に使用される視覚的プライバシー保護アルゴリズムの公平性を調査します。
PubFig データセットの実験は、提供されるプライバシー保護がグループ間で等しくないことを明確に示しています。

要約(オリジナル)

As the privacy risks posed by camera surveillance and facial recognition have grown, so has the research into privacy preservation algorithms. Among these, visual privacy preservation algorithms attempt to impart bodily privacy to subjects in visuals by obfuscating privacy-sensitive areas. While disparate performances of facial recognition systems across phenotypes are the subject of much study, its counterpart, privacy preservation, is not commonly analysed from a fairness perspective. In this paper, the fairness of commonly used visual privacy preservation algorithms is investigated through the performances of facial recognition models on obfuscated images. Experiments on the PubFig dataset clearly show that the privacy protection provided is unequal across groups.

arxiv情報

著者 Sophie Noiret,Siddharth Ravi,Martin Kampel,Francisco Florez-Revuelta
発行日 2023-01-12 13:40:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.CV, cs.LG パーマリンク