Boosting Adversarial Transferability across Model Genus by Deformation-Constrained Warping

要約

サロゲート モデルによって生成された敵対的な例は、通常、未知のターゲット システムへの転送可能性が限られています。
この問題に対処するために、多くの転送可能性向上アプローチ (入力変換やモデル拡張など) が提案されています。
ただし、代理モデルとは異なるモデル属を持つシステムを攻撃する場合にはパフォーマンスが低下します。
この論文では、変形制約ワーピング攻撃 (DeCoWA) と呼ばれる、モデル属間攻撃に効果的に適用できる、新規で汎用的な攻撃戦略を提案します。
具体的には、DeCoWA はまず、弾性変形、つまり変形拘束ワーピング (DeCoW) を介して入力例を拡張し、拡張された入力の豊富な局所詳細を取得します。
ランダムな変形によるグローバル セマンティクスの深刻な歪みを回避するために、DeCoW は新しい適応制御戦略によってワーピング変換の強度と方向をさらに制限します。
広範な実験により、CNN サロゲート上で DeCoWA によって作成された転送可能なサンプルが、画像分類、ビデオ アクション認識、音声認識などのさまざまなタスクにおけるトランスフォーマーのパフォーマンス (またはその逆) を大幅に妨げる可能性があることが実証されています。
コードは https://github.com/LinQinLiang/DeCoWA で入手できます。

要約(オリジナル)

Adversarial examples generated by a surrogate model typically exhibit limited transferability to unknown target systems. To address this problem, many transferability enhancement approaches (e.g., input transformation and model augmentation) have been proposed. However, they show poor performances in attacking systems having different model genera from the surrogate model. In this paper, we propose a novel and generic attacking strategy, called Deformation-Constrained Warping Attack (DeCoWA), that can be effectively applied to cross model genus attack. Specifically, DeCoWA firstly augments input examples via an elastic deformation, namely Deformation-Constrained Warping (DeCoW), to obtain rich local details of the augmented input. To avoid severe distortion of global semantics led by random deformation, DeCoW further constrains the strength and direction of the warping transformation by a novel adaptive control strategy. Extensive experiments demonstrate that the transferable examples crafted by our DeCoWA on CNN surrogates can significantly hinder the performance of Transformers (and vice versa) on various tasks, including image classification, video action recognition, and audio recognition. Code is made available at https://github.com/LinQinLiang/DeCoWA.

arxiv情報

著者 Qinliang Lin,Cheng Luo,Zenghao Niu,Xilin He,Weicheng Xie,Yuanbo Hou,Linlin Shen,Siyang Song
発行日 2024-02-06 12:23:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク