Robust Semantic Segmentation: Strong Adversarial Attacks and Fast Training of Robust Models

要約

画像分類器に対する敵対的攻撃の設計に多くの研究が焦点を当ててきましたが、セマンティック セグメンテーション モデルを攻撃する方法はほんのわずかしか存在しません。
私たちは、セグメンテーション モデルを攻撃するとタスク固有の課題が生じることを示し、それに対して新しい解決策を提案します。
私たちの最終評価プロトコルは既存の方法よりも優れており、それらの方法がモデルの堅牢性を過大評価する可能性があることを示しています。
さらに、これまでのところ、堅牢な画像分類器を取得する最も成功した方法である敵対的トレーニングは、セマンティック セグメンテーションにうまく適用できませんでした。
これは、学習するタスクがより難しく、画像分類よりもはるかに多くの計算量を必要とするためであると私たちは主張します。
解決策として、堅牢な ImageNet 分類器の最近の進歩を利用することで、堅牢なバックボーンを微調整することで限られた計算コストで敵対的に堅牢なセグメンテーション モデルをトレーニングできることを示します。

要約(オリジナル)

While a large amount of work has focused on designing adversarial attacks against image classifiers, only a few methods exist to attack semantic segmentation models. We show that attacking segmentation models presents task-specific challenges, for which we propose novel solutions. Our final evaluation protocol outperforms existing methods, and shows that those can overestimate the robustness of the models. Additionally, so far adversarial training, the most successful way for obtaining robust image classifiers, could not be successfully applied to semantic segmentation. We argue that this is because the task to be learned is more challenging, and requires significantly higher computational effort than for image classification. As a remedy, we show that by taking advantage of recent advances in robust ImageNet classifiers, one can train adversarially robust segmentation models at limited computational cost by fine-tuning robust backbones.

arxiv情報

著者 Francesco Croce,Naman D Singh,Matthias Hein
発行日 2023-06-22 14:56:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク