要約
ブラックボックスの敵対的攻撃は、アクション認識システムに現実的な脅威をもたらします。
既存のブラックボックス攻撃は、ターゲット モデルにクエリを実行して攻撃を最適化するクエリ ベースのアプローチか、代替モデルを使用して攻撃を生成する転送ベースのアプローチのいずれかに従います。
これらの方法は適切なフッキング率を達成できますが、前者は非常に非効率なクエリになる傾向があり、後者はブラックボックス モデルのトレーニング データに関する広範な知識を前提としています。
この論文では、摂動を生成して事前トレーニング済みの代替モデルによって学習された機能を混乱させ、クエリの数を減らすことで、これらの欠点に対処するアクション認識に対する新しい攻撃を提案します。
ほぼばらばらのデータセットを使用して代替モデルをトレーニングすることにより、代替モデルをターゲット モデルと同じデータセットを使用してトレーニングするという要件を取り除き、ターゲット モデルへのクエリを活用して、クエリベースによって提供されるフッキング レートの利点を保持します。
メソッド。
これは最終的に、従来のブラックボックス攻撃よりも転送しやすい攻撃になります。
広範な実験を通じて、提案されたフレームワークを使用したクエリ効率の高いブラックボックス攻撃を示します。
私たちの方法は、最先端のクエリベースおよび転送ベースの攻撃と比較して、それぞれ 8% および 12% 高い欺瞞率を達成します。
要約(オリジナル)
Black-box adversarial attacks present a realistic threat to action recognition systems. Existing black-box attacks follow either a query-based approach where an attack is optimized by querying the target model, or a transfer-based approach where attacks are generated using a substitute model. While these methods can achieve decent fooling rates, the former tends to be highly query-inefficient while the latter assumes extensive knowledge of the black-box model’s training data. In this paper, we propose a new attack on action recognition that addresses these shortcomings by generating perturbations to disrupt the features learned by a pre-trained substitute model to reduce the number of queries. By using a nearly disjoint dataset to train the substitute model, our method removes the requirement that the substitute model be trained using the same dataset as the target model, and leverages queries to the target model to retain the fooling rate benefits provided by query-based methods. This ultimately results in attacks which are more transferable than conventional black-box attacks. Through extensive experiments, we demonstrate highly query-efficient black-box attacks with the proposed framework. Our method achieves 8% and 12% higher deception rates compared to state-of-the-art query-based and transfer-based attacks, respectively.
arxiv情報
著者 | Rohit Gupta,Naveed Akhtar,Gaurav Kumar Nayak,Ajmal Mian,Mubarak Shah |
発行日 | 2022-11-23 17:47:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google