要約
ニューラル ネットワークは画像分類タスクで非常に優れたパフォーマンスを発揮しますが、入力画像を視覚的に変更せずにニューラル ネットワークをだますことができる敵対的摂動に対して依然として脆弱です。
論文は、任意の画像に追加されると、非常に高い確率でニューラル ネットワークをだます普遍的な敵対的摂動の存在を示しています。
この論文では、Universal Adversarial Perturbations 論文の経験を再現しようとしますが、計算された摂動の効率を研究できるようにするために、より小さなニューラル ネットワーク アーキテクチャとトレーニング セットを使用します。
要約(オリジナル)
Although neural networks perform very well on the image classification task, they are still vulnerable to adversarial perturbations that can fool a neural network without visibly changing an input image. A paper has shown the existence of Universal Adversarial Perturbations which when added to any image will fool the neural network with a very high probability. In this paper we will try to reproduce the experience of the Universal Adversarial Perturbations paper, but on a smaller neural network architecture and training set, in order to be able to study the efficiency of the computed perturbation.
arxiv情報
著者 | Waris Radji |
発行日 | 2022-10-10 11:51:42+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google