Rethinking Adversarial Examples for Location Privacy Protection

要約

敵対的な例の新しいアプリケーション、つまりランドマーク認識システムに対する位置プライバシー保護を調査しました。
マスクガイド付きマルチモーダル投影勾配降下法(MM-PGD)を紹介します。この降下法では、敵対的な例がさまざまな深層モデルでトレーニングされます。
画像コンテンツは、領域のプロパティを分析して、敵対的な例でのブレンドに最も適した領域を特定することによって保護されます。
2つの領域識別戦略を調査しました。クラスアクティベーションマップベースのMM-PGDで、トレーニングされたディープモデルの内部動作が対象になります。
人間の視覚に基づくMM-PGDでは、人間の注意をあまり引き付けない領域がターゲットになります。
Places365データセットでの実験は、これらの戦略が、多くの画像操作を必要とせずに、ブラックボックスのランドマーク認識システムから防御するのに潜在的に効果的であることを示しました。

要約(オリジナル)

We have investigated a new application of adversarial examples, namely location privacy protection against landmark recognition systems. We introduce mask-guided multimodal projected gradient descent (MM-PGD), in which adversarial examples are trained on different deep models. Image contents are protected by analyzing the properties of regions to identify the ones most suitable for blending in adversarial examples. We investigated two region identification strategies: class activation map-based MM-PGD, in which the internal behaviors of trained deep models are targeted; and human-vision-based MM-PGD, in which regions that attract less human attention are targeted. Experiments on the Places365 dataset demonstrated that these strategies are potentially effective in defending against black-box landmark recognition systems without the need for much image manipulation.

arxiv情報

著者 Trung-Nghia Le,Ta Gu,Huy H. Nguyen,Isao Echizen
発行日 2022-06-28 14:09:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク