Suppress with a Patch: Revisiting Universal Adversarial Patch Attacks against Object Detection

要約

敵対的なパッチベースの攻撃は、入力画像の特定の領域に集中して意図的に生成されたノイズでニューラル ネットワークをだますことを目的としています。
この作業では、初期化、パッチ サイズ、特にトレーニング中のイメージ内のパッチの配置など、さまざまなパッチ生成パラメーターの詳細な分析を実行します。
オブジェクト消失攻撃に焦点を当て、YOLOv3 をホワイト ボックス設定で攻撃対象のモデルとして実験を実行し、COCO データセットの画像を使用します。
私たちの実験では、トレーニング中にサイズが大きくなるウィンドウ内にパッチを挿入すると、固定位置と比較して攻撃力が大幅に増加することが示されています。
トレーニング中にパッチがランダムに配置されたときに最良の結果が得られましたが、パッチの位置はバッチ内でさらに変化しました。

要約(オリジナル)

Adversarial patch-based attacks aim to fool a neural network with an intentionally generated noise, which is concentrated in a particular region of an input image. In this work, we perform an in-depth analysis of different patch generation parameters, including initialization, patch size, and especially positioning a patch in an image during training. We focus on the object vanishing attack and run experiments with YOLOv3 as a model under attack in a white-box setting and use images from the COCO dataset. Our experiments have shown, that inserting a patch inside a window of increasing size during training leads to a significant increase in attack strength compared to a fixed position. The best results were obtained when a patch was positioned randomly during training, while patch position additionally varied within a batch.

arxiv情報

著者 Svetlana Pavlitskaya,Jonas Hendl,Sebastian Kleim,Leopold Müller,Fabian Wylczoch,J. Marius Zöllner
発行日 2022-09-27 12:59:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク