要約
顔認識(FR)の目覚しい成功により、特にソーシャルメディアにおいてインターネットユーザーのプライバシーが危険にさらされている。最近、研究者はその対策として、敵対的な例を利用することに着目した。本論文では、個人画像の識別を解除するために、広く知られている2つの敵対的手法(BIMとILLC)を使用した場合の有効性を評価する。その結果、これまでの文献の主張とは異なり、人間の視覚系に感知されない敵対的な摂動で高い保護成功率(識別率の抑制)を得ることは容易ではないことを発見しました。最後に、敵対的な事例の移植性は、それを生成するネットワークの学習パラメータに大きく影響されることを明らかにしました。
要約(オリジナル)
The remarkable success of face recognition (FR) has endangered the privacy of internet users particularly in social media. Recently, researchers turned to use adversarial examples as a countermeasure. In this paper, we assess the effectiveness of using two widely known adversarial methods (BIM and ILLC) for de-identifying personal images. We discovered, unlike previous claims in the literature, that it is not easy to get a high protection success rate (suppressing identification rate) with imperceptible adversarial perturbation to the human visual system. Finally, we found out that the transferability of adversarial examples is highly affected by the training parameters of the network with which they are generated.
arxiv情報
著者 | Mahdi Ghafourian,Julian Fierrez,Luis Felipe Gomez,Ruben Vera-Rodriguez,Aythami Morales,Zohra Rezgui,Raymond Veldhuis |
発行日 | 2023-02-07 18:17:41+00:00 |
arxivサイト | arxiv_id(pdf) |