要約
Deep Neural Networks (DNN) は様々な実世界のシナリオに広く適用されているが、敵対的な例に対して脆弱である。現在のコンピュータビジョンにおける敵対的攻撃は、その攻撃形態の違いにより、デジタル攻撃と物理攻撃に分けることができます。デジタル画素に乱れを発生させるデジタル攻撃と比較すると、物理攻撃は実世界でより実用的である。このような物理敵対的な事例によるセキュリティ上の問題から、近年、DNNの物理敵対的な堅牢性を評価する研究が多く提案されている。本論文では、コンピュータビジョンにおける物理敵対的攻撃と物理敵対的防御に関するサーベイをまとめる。分類法を確立するために、現在の物理的攻撃を攻撃タスク、攻撃形態、攻撃方法からそれぞれ整理する。これにより、読者はこのトピックについて様々な側面から体系的な知識を得ることができる。また、物理的防御については、DNNモデルの前処理、処理中、後処理に分類し、敵対的防御の完全な網羅を目指します。以上の調査に基づいて、最後にこの研究分野の課題を議論し、さらに将来の方向性を展望する。
要約(オリジナル)
Although Deep Neural Networks (DNNs) have been widely applied in various real-world scenarios, they are vulnerable to adversarial examples. The current adversarial attacks in computer vision can be divided into digital attacks and physical attacks according to their different attack forms. Compared with digital attacks, which generate perturbations in the digital pixels, physical attacks are more practical in the real world. Owing to the serious security problem caused by physically adversarial examples, many works have been proposed to evaluate the physically adversarial robustness of DNNs in the past years. In this paper, we summarize a survey versus the current physically adversarial attacks and physically adversarial defenses in computer vision. To establish a taxonomy, we organize the current physical attacks from attack tasks, attack forms, and attack methods, respectively. Thus, readers can have a systematic knowledge about this topic from different aspects. For the physical defenses, we establish the taxonomy from pre-processing, in-processing, and post-processing for the DNN models to achieve a full coverage of the adversarial defenses. Based on the above survey, we finally discuss the challenges of this research field and further outlook the future direction.
arxiv情報
著者 | Xingxing Wei,Bangzheng Pu,Jiefan Lu,Baoyuan Wu |
発行日 | 2022-11-03 09:28:45+00:00 |
arxivサイト | arxiv_id(pdf) |