Improving the Transferability of Adversarial Attacks on Face Recognition with Beneficial Perturbation Feature Augmentation

要約

顔認識 (FR) モデルは、無害な顔画像に知覚できない摂動を追加することによって作成された敵対的な例によって簡単にだまされる可能性があります。
敵対者の顔の例の転送可能性を改善するために、Beneficial Perturbation Feature Augmentation Attack (BPFA) と呼ばれる新しい攻撃方法を提案します。
敵対的な例を作成します。
具体的には、バックプロパゲーションでは、BPFA は事前に選択された特徴の勾配を記録し、入力画像の勾配を使用して敵対的な例を作成します。
次の順伝播では、BPFA は記録された勾配を活用して摂動 (つまり、有益な摂動) を追加します。この摂動は、対応する機能の敵対的な例に対してピットインできます。
敵対的な例の最適化プロセスと、特徴に追加された有益な摂動の最適化プロセスは、ミニマックス 2 プレーヤー ゲームに対応します。
広範な実験により、BPFA が FR に対する敵対的攻撃の転送可能性を大幅に高めることができることが示されています。

要約(オリジナル)

Face recognition (FR) models can be easily fooled by adversarial examples, which are crafted by adding imperceptible perturbations on benign face images. To improve the transferability of adversarial face examples, we propose a novel attack method called Beneficial Perturbation Feature Augmentation Attack (BPFA), which reduces the overfitting of adversarial examples to surrogate FR models by constantly generating new models that have the similar effect of hard samples to craft the adversarial examples. Specifically, in the backpropagation, BPFA records the gradients on pre-selected features and uses the gradient on the input image to craft the adversarial example. In the next forward propagation, BPFA leverages the recorded gradients to add perturbations (i.e., beneficial perturbations) that can be pitted against the adversarial example on their corresponding features. The optimization process of the adversarial example and the optimization process of the beneficial perturbations added on the features correspond to a minimax two-player game. Extensive experiments demonstrate that BPFA can significantly boost the transferability of adversarial attacks on FR.

arxiv情報

著者 Fengfan Zhou,Hefei Ling,Yuxuan Shi,Jiazhong Chen,Zongyi Li,Ping Li
発行日 2023-01-26 06:34:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク