Universal Adversarial Perturbations: Efficiency on a small image dataset

要約

ニューラル ネットワークは画像分類タスクで非常に優れたパフォーマンスを発揮しますが、入力画像を視覚的に変更せずにニューラル ネットワークをだますことができる敵対的摂動に対して依然として脆弱です。
論文は、任意の画像に追加されると、非常に高い確率でニューラル ネットワークをだます普遍的な敵対的摂動の存在を示しています。
この論文では、Universal Adversarial Perturbations 論文の経験を再現しようとしますが、計算された摂動の効率を研究できるようにするために、より小さなニューラル ネットワーク アーキテクチャとトレーニング セットを使用します。

要約(オリジナル)

Although neural networks perform very well on the image classification task, they are still vulnerable to adversarial perturbations that can fool a neural network without visibly changing an input image. A paper has shown the existence of Universal Adversarial Perturbations which when added to any image will fool the neural network with a very high probability. In this paper we will try to reproduce the experience of the Universal Adversarial Perturbations paper, but on a smaller neural network architecture and training set, in order to be able to study the efficiency of the computed perturbation.

arxiv情報

著者 Waris Radji
発行日 2022-10-10 11:51:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク