Adaptive Image Transformations for Transfer-based Adversarial Attack

要約

敵対的攻撃は、深層学習モデルの堅牢性を調べる良い方法です。
転送ベースのブラックボックス攻撃の手法の 1 つのカテゴリでは、いくつかの画像変換操作を利用して、敵対的な例の転送可能性を改善します。これは効果的ですが、入力画像の特定の特性を考慮に入れることができません。
この作業では、適応型画像変換学習器 (AITL) と呼ばれる新しいアーキテクチャを提案します。これは、さまざまな画像変換操作を統合されたフレームワークに組み込み、敵対的な例の転送可能性をさらに向上させます。
既存の作品で使用されている固定の組み合わせ変換とは異なり、精巧に設計された変換学習器は、入力画像に固有の画像変換の最も効果的な組み合わせを適応的に選択します。
ImageNet での広範な実験は、さまざまな設定の下で、通常トレーニングされたモデルと防御モデルの両方で、私たちの方法が攻撃の成功率を大幅に改善することを示しています。

要約(オリジナル)

Adversarial attacks provide a good way to study the robustness of deep learning models. One category of methods in transfer-based black-box attack utilizes several image transformation operations to improve the transferability of adversarial examples, which is effective, but fails to take the specific characteristic of the input image into consideration. In this work, we propose a novel architecture, called Adaptive Image Transformation Learner (AITL), which incorporates different image transformation operations into a unified framework to further improve the transferability of adversarial examples. Unlike the fixed combinational transformations used in existing works, our elaborately designed transformation learner adaptively selects the most effective combination of image transformations specific to the input image. Extensive experiments on ImageNet demonstrate that our method significantly improves the attack success rates on both normally trained models and defense models under various settings.

arxiv情報

著者 Zheng Yuan,Jie Zhang,Shiguang Shan
発行日 2022-09-28 08:09:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク