Uncertainty-weighted Loss Functions for Improved Adversarial Attacks on Semantic Segmentation

要約

最先端のディープ ニューラル ネットワークは、セマンティック セグメンテーションなどのさまざまな知覚タスクにおいて非常に強力であることが示されています。
ただし、これらのネットワークは、人間には知覚できないものの、不正確な予測につながる、敵対的な入力の摂動に対して脆弱です。
画像セグメンテーションをピクセル単位の分類の合計として扱うと、分類モデル用に開発された敵対的攻撃がセグメンテーション モデルにも適用できることが示されました。
この研究では、このような攻撃の損失関数に対する単純な不確実性ベースの重み付けスキームを提示します。このスキームは、(i) より容易に混乱する可能性のあるピクセル分類により高い重みを置き、(ii) それらのピクセルに対応するピクセルごとの損失をゼロにします。
それらはすでに確実に誤分類されています。
重み付けスキームは、追加の計算オーバーヘッドを最小限に抑えながら、さまざまな既知の敵対的攻撃者の損失関数に簡単に統合できますが、いくつかのデータセットとモデルの実証分析で実証されているように、摂動パフォーマンスの大幅な向上につながります。

要約(オリジナル)

State-of-the-art deep neural networks have been shown to be extremely powerful in a variety of perceptual tasks like semantic segmentation. However, these networks are vulnerable to adversarial perturbations of the input which are imperceptible for humans but lead to incorrect predictions. Treating image segmentation as a sum of pixel-wise classifications, adversarial attacks developed for classification models were shown to be applicable to segmentation models as well. In this work, we present simple uncertainty-based weighting schemes for the loss functions of such attacks that (i) put higher weights on pixel classifications which can more easily perturbed and (ii) zero-out the pixel-wise losses corresponding to those pixels that are already confidently misclassified. The weighting schemes can be easily integrated into the loss function of a range of well-known adversarial attackers with minimal additional computational overhead, but lead to significant improved perturbation performance, as we demonstrate in our empirical analysis on several datasets and models.

arxiv情報

著者 Kira Maag,Asja Fischer
発行日 2023-10-26 14:47:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク