SegPGD: An Effective and Efficient Adversarial Attack for Evaluating and Boosting Segmentation Robustness

要約

ディープニューラルネットワークベースの画像分類は、敵対的な摂動に対して脆弱です。
画像の分類は、入力画像に人工的な小さくて知覚できない摂動を追加することで簡単にだまされる可能性があります。
最も効果的な防御戦略の1つとして、分類モデルの脆弱性に対処するために敵対的トレーニングが提案されました。敵対的例が作成され、トレーニング中にトレーニングデータに挿入されます。
分類モデルの攻撃と防御は、過去数年間に集中的に研究されてきました。
分類の拡張としてのセマンティックセグメンテーションも、最近大きな注目を集めています。
最近の研究では、セグメンテーションモデルをだますための効果的な敵対的な例を作成するには、多数の攻撃の反復が必要であることが示されています。
この観察により、セグメンテーションモデルの堅牢性評価と敵対的トレーニングの両方が困難になります。
この作業では、SegPGDと呼ばれる効果的かつ効率的なセグメンテーション攻撃方法を提案します。
さらに、収束分析を提供して、提案されたSegPGDが、同じ攻撃反復回数でPGDよりも効果的な敵対的な例を作成できることを示します。
さらに、セグメンテーションの敵対的トレーニングの基礎となる攻撃方法として、SegPGDを適用することを提案します。
SegPGDはより効果的な敵対的な例を作成できるため、SegPGDを使用した敵対的なトレーニングにより、セグメンテーションモデルの堅牢性を高めることができます。
私たちの提案は、人気のあるセグメンテーションモデルアーキテクチャと標準のセグメンテーションデータセットでの実験でも検証されています。

要約(オリジナル)

Deep neural network-based image classifications are vulnerable to adversarial perturbations. The image classifications can be easily fooled by adding artificial small and imperceptible perturbations to input images. As one of the most effective defense strategies, adversarial training was proposed to address the vulnerability of classification models, where the adversarial examples are created and injected into training data during training. The attack and defense of classification models have been intensively studied in past years. Semantic segmentation, as an extension of classifications, has also received great attention recently. Recent work shows a large number of attack iterations are required to create effective adversarial examples to fool segmentation models. The observation makes both robustness evaluation and adversarial training on segmentation models challenging. In this work, we propose an effective and efficient segmentation attack method, dubbed SegPGD. Besides, we provide a convergence analysis to show the proposed SegPGD can create more effective adversarial examples than PGD under the same number of attack iterations. Furthermore, we propose to apply our SegPGD as the underlying attack method for segmentation adversarial training. Since SegPGD can create more effective adversarial examples, the adversarial training with our SegPGD can boost the robustness of segmentation models. Our proposals are also verified with experiments on popular Segmentation model architectures and standard segmentation datasets.

arxiv情報

著者 Jindong Gu,Hengshuang Zhao,Volker Tresp,Philip Torr
発行日 2022-07-25 17:56:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク