Exploring the Physical World Adversarial Robustness of Vehicle Detection

要約

敵対的な攻撃は、現実世界の検出モデルの堅牢性を損なう可能性があります。
ただし、現実世界の条件下でこれらのモデルを評価するには、リソースを大量に消費する実験が必要になるため、課題が生じます。
仮想シミュレーションは代替手段を提供しますが、標準化されたベンチマークがないため進歩が妨げられています。
これに対処するために、CARLA シミュレーターを使用した革新的なインスタントレベルのデータ生成パイプラインを提案します。
このパイプラインを通じて、離散および連続インスタント レベル (DCI) データセットを確立し、3 つの検出モデルと 3 つの物理的敵対的攻撃を含む包括的な実験を可能にします。
私たちの調査結果は、敵対的な条件下でのモデルのパフォーマンスが多様であることを浮き彫りにしています。
Yolo v6 は顕著な回復力を示し、平均精度 (AP) の平均 6.59% のわずかな低下しか経験しません。
対照的に、ASA 攻撃は平均 14.51% という大幅な AP 削減をもたらし、これは他のアルゴリズムの 2 倍の効果です。
また、静的なシーンではより高い認識 AP 値が得られ、結果はさまざまな気象条件にわたって比較的一貫したままであることにも注目します。
興味深いことに、私たちの研究は、敵対的攻撃アルゴリズムの進歩がその「限界」に近づいている可能性があることを示唆しています。要約すると、私たちの研究は、現実世界の状況における敵対的攻撃の重要性を強調し、汎用性の高いベンチマークとして DCI データセットを導入しています。
私たちの調査結果は、検出モデルの堅牢性を強化するための貴重な洞察を提供し、敵対的攻撃の分野における将来の研究活動への指針を提供します。

要約(オリジナル)

Adversarial attacks can compromise the robustness of real-world detection models. However, evaluating these models under real-world conditions poses challenges due to resource-intensive experiments. Virtual simulations offer an alternative, but the absence of standardized benchmarks hampers progress. Addressing this, we propose an innovative instant-level data generation pipeline using the CARLA simulator. Through this pipeline, we establish the Discrete and Continuous Instant-level (DCI) dataset, enabling comprehensive experiments involving three detection models and three physical adversarial attacks. Our findings highlight diverse model performances under adversarial conditions. Yolo v6 demonstrates remarkable resilience, experiencing just a marginal 6.59% average drop in average precision (AP). In contrast, the ASA attack yields a substantial 14.51% average AP reduction, twice the effect of other algorithms. We also note that static scenes yield higher recognition AP values, and outcomes remain relatively consistent across varying weather conditions. Intriguingly, our study suggests that advancements in adversarial attack algorithms may be approaching its “limitation”.In summary, our work underscores the significance of adversarial attacks in real-world contexts and introduces the DCI dataset as a versatile benchmark. Our findings provide valuable insights for enhancing the robustness of detection models and offer guidance for future research endeavors in the realm of adversarial attacks.

arxiv情報

著者 Wei Jiang,Tianyuan Zhang,Shuangcheng Liu,Weiyu Ji,Zichao Zhang,Gang Xiao
発行日 2023-08-07 11:09:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク