A Survey on Transferability of Adversarial Examples across Deep Neural Networks

要約

ディープ ニューラル ネットワーク (DNN) の出現はさまざまな領域に革命をもたらし、画像認識、自然言語処理、科学的問題解決に及ぶ複雑なタスクの解決を可能にしました。
しかし、この進歩により、敵対的な例という懸念すべき脆弱性も明らかになりました。
人間には感知できないこれらの細工された入力は、機械学習モデルを操作して誤った予測を行う可能性があり、安全性が重要なアプリケーションに対する懸念を引き起こします。
この現象の興味深い特性は、敵対的な例の転移可能性です。あるモデル用に作成された摂動が、多くの場合、異なるアーキテクチャで別のモデルを欺く可能性があります。
この興味深い特性により、ターゲット モデルの詳細な知識の必要性を回避する「ブラック ボックス」攻撃が可能になります。
この調査では、敵対的な例の敵対的な移転可能性の状況を調査します。
敵対的転送可能性を強化するための既存の方法論を分類し、それぞれのアプローチを導く基本原則について説明します。
主な研究は主に画像分類に焦点を当てていますが、私たちは議論を拡張して、他の視覚タスクやそれを超えたタスクも網羅します。
課題と将来の見通しについて議論し、進化する状況における敵対的な脆弱性に対して DNN を強化することの重要性を強調します。

要約(オリジナル)

The emergence of Deep Neural Networks (DNNs) has revolutionized various domains, enabling the resolution of complex tasks spanning image recognition, natural language processing, and scientific problem-solving. However, this progress has also exposed a concerning vulnerability: adversarial examples. These crafted inputs, imperceptible to humans, can manipulate machine learning models into making erroneous predictions, raising concerns for safety-critical applications. An intriguing property of this phenomenon is the transferability of adversarial examples, where perturbations crafted for one model can deceive another, often with a different architecture. This intriguing property enables ‘black-box’ attacks, circumventing the need for detailed knowledge of the target model. This survey explores the landscape of the adversarial transferability of adversarial examples. We categorize existing methodologies to enhance adversarial transferability and discuss the fundamental principles guiding each approach. While the predominant body of research primarily concentrates on image classification, we also extend our discussion to encompass other vision tasks and beyond. Challenges and future prospects are discussed, highlighting the importance of fortifying DNNs against adversarial vulnerabilities in an evolving landscape.

arxiv情報

著者 Jindong Gu,Xiaojun Jia,Pau de Jorge,Wenqain Yu,Xinwei Liu,Avery Ma,Yuan Xun,Anjun Hu,Ashkan Khakzar,Zhijiang Li,Xiaochun Cao,Philip Torr
発行日 2023-10-26 17:45:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク