A Comprehensive Study and Comparison of the Robustness of 3D Object Detectors Against Adversarial Attacks

要約

深層学習ベースの 3D オブジェクト検出器は、近年大きな進歩を遂げており、幅広いアプリケーションに展開されています。
セキュリティ クリティカルなアプリケーションで検出器を使用する場合、敵対的な攻撃に対する検出器の堅牢性を理解することが重要です。
この論文では、敵対的攻撃下での3D検出器の堅牢性の徹底的な評価と分析を行う最初の試みを行います。
具体的には、最初に 3 種類の敵対的攻撃を 3D オブジェクト検出タスクに拡張して、KITTI および Waymo データセットに対する攻撃に対する最先端の 3D オブジェクト検出器の堅牢性をベンチマークし、続いて堅牢性と
検出器の特性。
次に、クロスモデル、クロスタスク、クロスデータ攻撃の転送可能性を調べます。
最後に、3D 検出器の防御に関する包括的な実験を行い、入力点群データに課せられた変換戦略が攻撃者にさらされた場合、フリッピングのような単純な変換はロバスト性の向上にほとんど役立たないことを実証しました。
私たちの調査結果は、この分野を前進させるために、3D オブジェクト検出器に対する敵対的攻撃の理解と防御に関する調査を容易にします。

要約(オリジナル)

Deep learning-based 3D object detectors have made significant progress in recent years and have been deployed in a wide range of applications. It is crucial to understand the robustness of detectors against adversarial attacks when employing detectors in security-critical applications. In this paper, we make the first attempt to conduct a thorough evaluation and analysis of the robustness of 3D detectors under adversarial attacks. Specifically, we first extend three kinds of adversarial attacks to the 3D object detection task to benchmark the robustness of state-of-the-art 3D object detectors against attacks on KITTI and Waymo datasets, subsequently followed by the analysis of the relationship between robustness and properties of detectors. Then, we explore the transferability of cross-model, cross-task, and cross-data attacks. We finally conduct comprehensive experiments of defense for 3D detectors, demonstrating that simple transformations like flipping are of little help in improving robustness when the strategy of transformation imposed on input point cloud data is exposed to attackers. Our findings will facilitate investigations in understanding and defending the adversarial attacks against 3D object detectors to advance this field.

arxiv情報

著者 Yifan Zhang,Junhui Hou,Yixuan Yuan
発行日 2022-12-20 13:09:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク