FSPGD: Rethinking Black-box Attacks on Semantic Segmentation

要約

1つのモデルが他のモデルを欺くために作成された敵対的な例の能力である転送可能性は、ブラックボックス攻撃にとって重要です。
セマンティックセグメンテーションのための攻撃方法の進歩にもかかわらず、転送可能性は限られたままであり、実際のアプリケーションでの有効性が低下します。
これに対処するために、攻撃性能と転送可能性の両方を高める新しいブラックボックスアプローチである、特徴の類似性投影勾配降下(FSPGD)攻撃を導入します。
勾配計算の出力予測に依存する従来のセグメンテーション攻撃とは異なり、FSPGDは中間層の特徴から勾配を計算します。
具体的には、我々の方法では、クリーンな画像と敵対例の特徴を比較することにより、ローカル情報をターゲットにする損失関数を導入し、オブジェクト間の空間的関係を説明することによりコンテキスト情報を破壊します。
Pascal VOC 2012およびCityscapesデータセットの実験は、FSPGDが優れた移動性と攻撃性能を達成し、新しい最先端のベンチマークを確立することを示しています。
コードはhttps://github.com/ku-aivs/fspgdで入手できます。

要約(オリジナル)

Transferability, the ability of adversarial examples crafted for one model to deceive other models, is crucial for black-box attacks. Despite advancements in attack methods for semantic segmentation, transferability remains limited, reducing their effectiveness in real-world applications. To address this, we introduce the Feature Similarity Projected Gradient Descent (FSPGD) attack, a novel black-box approach that enhances both attack performance and transferability. Unlike conventional segmentation attacks that rely on output predictions for gradient calculation, FSPGD computes gradients from intermediate layer features. Specifically, our method introduces a loss function that targets local information by comparing features between clean images and adversarial examples, while also disrupting contextual information by accounting for spatial relationships between objects. Experiments on Pascal VOC 2012 and Cityscapes datasets demonstrate that FSPGD achieves superior transferability and attack performance, establishing a new state-of-the-art benchmark. Code is available at https://github.com/KU-AIVS/FSPGD.

arxiv情報

著者 Eun-Sol Park,MiSo Park,Seung Park,Yong-Goo Shin
発行日 2025-03-06 14:50:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク