CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of Adversarial Robustness of Vision Models

要約

敵対的な事例は、いくつかのアプリケーションドメインにおけるディープニューラルネットワークにとって深刻な脅威であり、それを調査し、その影響を軽減するために膨大な量の作業が生み出されてきた。それにもかかわらず、ニューラルネットワークの敵対的頑健性を評価するために特別に設計されたデータセットの生成には、あまり研究がなされていない。本論文では、物理的な敵対パッチに対するニューラルモデルの頑健性を系統的に評価し、異なる敵対防御・検知手法の性能を比較するために使用できる、フォトリアリスティックな合成データセットを自動生成するツール、CARLA-GeARを紹介します。本ツールは、CARLAシミュレータのPython APIを利用して構築されており、自律走行に関連する複数の視覚タスクのデータセットを生成することが可能です。生成されたデータセットに含まれる敵対的なパッチは、ビルボードやトラックの荷台に取り付けられており、テスト対象のモデルの予測誤差を最大化するために、最先端のホワイトボックス攻撃戦略を用いて作成されている。最後に、このような攻撃に対するいくつかの防御方法の性能を評価する実験的研究を紹介し、CARLA-GeARで生成したデータセットが実世界における敵対的防御のベンチマークとして今後の研究でどのように使われる可能性があるのかを示す。本論文で使用した全てのコードとデータセットは、http://carlagear.retis.santannapisa.it で入手可能である。

要約(オリジナル)

Adversarial examples represent a serious threat for deep neural networks in several application domains and a huge amount of work has been produced to investigate them and mitigate their effects. Nevertheless, no much work has been devoted to the generation of datasets specifically designed to evaluate the adversarial robustness of neural models. This paper presents CARLA-GeAR, a tool for the automatic generation of photo-realistic synthetic datasets that can be used for a systematic evaluation of the adversarial robustness of neural models against physical adversarial patches, as well as for comparing the performance of different adversarial defense/detection methods. The tool is built on the CARLA simulator, using its Python API, and allows the generation of datasets for several vision tasks in the context of autonomous driving. The adversarial patches included in the generated datasets are attached to billboards or the back of a truck and are crafted by using state-of-the-art white-box attack strategies to maximize the prediction error of the model under test. Finally, the paper presents an experimental study to evaluate the performance of some defense methods against such attacks, showing how the datasets generated with CARLA-GeAR might be used in future work as a benchmark for adversarial defense in the real world. All the code and datasets used in this paper are available at http://carlagear.retis.santannapisa.it.

arxiv情報

著者 Federico Nesti,Giulio Rossolini,Gianluca D’Amico,Alessandro Biondi,Giorgio Buttazzo
発行日 2022-06-09 09:17:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク