Exploring Adversarial Robustness of LiDAR-Camera Fusion Model in Autonomous Driving

要約

私たちの研究では、3D 物体検出における LiDAR とカメラの融合モデルの敵対的堅牢性を評価しています。
車の上に物理的に制限された限られた数の敵対ポイントを追加するだけで、融合モデルによって車が検出されなくなる攻撃手法を紹介します。
実験結果では、画像データ チャネルを変更しなくても、LiDAR データ チャネルを操作するだけで融合モデルを欺瞞できることが明らかになりました。
この発見は、自動運転の分野における安全性の懸念を引き起こします。
さらに、敵対ポイントの量、前方車両と LiDAR 搭載車両との距離、さまざまな角度要因が攻撃の成功率にどのような影響を与えるかを調査します。
私たちは、私たちの研究がマルチセンサーの堅牢性の理解に貢献し、自動運転の安全性を高めるための洞察と指針を提供できると信じています。

要約(オリジナル)

Our study assesses the adversarial robustness of LiDAR-camera fusion models in 3D object detection. We introduce an attack technique that, by simply adding a limited number of physically constrained adversarial points above a car, can make the car undetectable by the fusion model. Experimental results reveal that even without changes to the image data channel, the fusion model can be deceived solely by manipulating the LiDAR data channel. This finding raises safety concerns in the field of autonomous driving. Further, we explore how the quantity of adversarial points, the distance between the front-near car and the LiDAR-equipped car, and various angular factors affect the attack success rate. We believe our research can contribute to the understanding of multi-sensor robustness, offering insights and guidance to enhance the safety of autonomous driving.

arxiv情報

著者 Bo Yang,Xiaoyu Ji,Zizhi Jin,Yushi Cheng,Wenyuan Xu
発行日 2024-01-09 06:36:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク