On The Relationship Between Universal Adversarial Attacks And Sparse Representations

要約

主にコンピュータ ビジョン タスクにおけるニューラル ネットワークの顕著な成功は、画像入力における小さな、ほとんど知覚できない敵対的な摂動に対するニューラル ネットワークの敏感さによってますます影が薄れています。
この研究では、スパース性のフレームワークを通じてこの脆弱性を説明することを目的としています。
ニューラル ネットワークにおける敵対的な例の普遍性と伝達可能性の説明に重点を置き、敵対的攻撃とスパース表現との関係を示します。
この目的を達成するために、スパースコーディングアルゴリズム、およびその中のニューラルネットワークベースの学習反復収縮閾値アルゴリズム (LISTA) がこの感度に悩まされており、ニューラルネットワークに対する一般的な攻撃は、次のスパース表現に対する攻撃として表現される可能性があることを示します。
入力された画像。
私たちが観察した現象は、ネットワークがスパース表現や辞書に依存しない場合にも当てはまり、したがって、敵対的攻撃の普遍性と伝達可能性についての説明が得られる可能性があります。
コードは https://github.com/danawr/adversarial_attachs_and_sparse_representations で入手できます。

要約(オリジナル)

The prominent success of neural networks, mainly in computer vision tasks, is increasingly shadowed by their sensitivity to small, barely perceivable adversarial perturbations in image input. In this work, we aim at explaining this vulnerability through the framework of sparsity. We show the connection between adversarial attacks and sparse representations, with a focus on explaining the universality and transferability of adversarial examples in neural networks. To this end, we show that sparse coding algorithms, and the neural network-based learned iterative shrinkage thresholding algorithm (LISTA) among them, suffer from this sensitivity, and that common attacks on neural networks can be expressed as attacks on the sparse representation of the input image. The phenomenon that we observe holds true also when the network is agnostic to the sparse representation and dictionary, and thus can provide a possible explanation for the universality and transferability of adversarial attacks. The code is available at https://github.com/danawr/adversarial_attacks_and_sparse_representations.

arxiv情報

著者 Dana Weitzner,Raja Giryes
発行日 2023-11-14 16:00:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク