要約
自律運転システム(ADS)は、敵対的な攻撃に対して脆弱なままである深い学習ベースの知覚モデルにますます依存しています。
この論文では、敵対的な攻撃と防御方法を再検討し、道路標識の認識と鉛オブジェクトの検出と予測(相対距離など)に焦点を当てています。
レベル2の生産広告、Comma $。$ AIによるOpenPilot、および広く採用されているYoloモデルを使用して、敵対的な摂動の影響を体系的に調べ、敵対的訓練、画像処理、対照学習、拡散モデルなどの防御技術を評価します。
私たちの実験は、複雑な攻撃の緩和におけるこれらの方法の長所と制限の両方を強調しています。
モデルの堅牢性のターゲット評価を通じて、ADS認識システムの脆弱性についてより深い洞察を提供し、より回復力のある防衛戦略を開発するためのガイダンスを提供することを目指しています。
要約(オリジナル)
Autonomous driving systems (ADS) increasingly rely on deep learning-based perception models, which remain vulnerable to adversarial attacks. In this paper, we revisit adversarial attacks and defense methods, focusing on road sign recognition and lead object detection and prediction (e.g., relative distance). Using a Level-2 production ADS, OpenPilot by Comma$.$ai, and the widely adopted YOLO model, we systematically examine the impact of adversarial perturbations and assess defense techniques, including adversarial training, image processing, contrastive learning, and diffusion models. Our experiments highlight both the strengths and limitations of these methods in mitigating complex attacks. Through targeted evaluations of model robustness, we aim to provide deeper insights into the vulnerabilities of ADS perception systems and contribute guidance for developing more resilient defense strategies.
arxiv情報
著者 | Cheng Chen,Yuhong Wang,Nafis S Munir,Xiangwei Zhou,Xugui Zhou |
発行日 | 2025-05-23 17:44:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google