要約
ディープ ハッシュ ベースの検索技術は、顔照合の効率を向上させるために顔検索システムで広く使用されています。
ただし、個人情報が漏洩する危険性もあります。
ディープ ハッシュ モデルは敵対的な例の影響を受けやすいため、プライベート イメージを悪意のある取得から保護するために利用できます。
ディープ ハッシュ モデルに対する既存の敵対的手法の例は、普遍性と転送可能性に焦点を当てており、オンライン ソーシャル ネットワーク (OSN) での堅牢性に関する研究が不足しているため、後処理後の検索防止で失敗します。
したがって、我々は普遍的な転移可能なアンチフェイシャル検索におけるロバストネス敵対的摂動に関する最初の詳細な議論を提供し、Three-in-One Adversarial Perturbation (TOAP) を提案します。
具体的には、摂動を軽減するために使用できる、複雑な後処理シナリオをシミュレートするローカルおよびグローバルの圧縮ジェネレーター (CG) を構築します。
次に、後処理後のモデル分布の変動パターンの発見に基づいてロバストな最適化目標を提案し、これらの目標とメタ学習を使用して敵対的な例を生成します。
最後に、敵対的な例の生成と CG の微調整を交互に行うことで摂動を繰り返し最適化し、CG の摂動を軽減する能力を強化しながら摂動のパフォーマンスのバランスをとります。
多くの実験により、TOAP は汎用性と移植性における利点に加えて、複数の堅牢性指標において現在の最先端の方法よりも大幅に優れていることが実証されています。
これにより、汎用性と転送可能性が 5% ~ 28% 向上し、主流の OSN だけでなく、シミュレートされたいくつかの後処理シナリオでも最大約 33% の大幅な改善が達成され、TOAP が現実世界における悪意のある取得からプライベート イメージを効果的に保護できることが実証されました。
シナリオ。
要約(オリジナル)
Deep hash-based retrieval techniques are widely used in facial retrieval systems to improve the efficiency of facial matching. However, it also carries the danger of exposing private information. Deep hash models are easily influenced by adversarial examples, which can be leveraged to protect private images from malicious retrieval. The existing adversarial example methods against deep hash models focus on universality and transferability, lacking the research on its robustness in online social networks (OSNs), which leads to their failure in anti-retrieval after post-processing. Therefore, we provide the first in-depth discussion on robustness adversarial perturbation in universal transferable anti-facial retrieval and propose Three-in-One Adversarial Perturbation (TOAP). Specifically, we construct a local and global Compression Generator (CG) to simulate complex post-processing scenarios, which can be used to mitigate perturbation. Then, we propose robust optimization objectives based on the discovery of the variation patterns of model’s distribution after post-processing, and generate adversarial examples using these objectives and meta-learning. Finally, we iteratively optimize perturbation by alternately generating adversarial examples and fine-tuning the CG, balancing the performance of perturbation while enhancing CG’s ability to mitigate them. Numerous experiments demonstrate that, in addition to its advantages in universality and transferability, TOAP significantly outperforms current state-of-the-art methods in multiple robustness metrics. It further improves universality and transferability by 5% to 28%, and achieves up to about 33% significant improvement in several simulated post-processing scenarios as well as mainstream OSNs, demonstrating that TOAP can effectively protect private images from malicious retrieval in real-world scenarios.
arxiv情報
著者 | Yunna Lv,Long Tang,Dengpan Ye,Caiyun Xie,Jiacheng Deng,Yiheng He |
発行日 | 2024-12-23 14:36:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google