Uncertainty Quantification for Collaborative Object Detection Under Adversarial Attacks

要約

協調物体検出(COD)と協調知覚は、様々なエンティティからのデータや特徴を統合し、個々の知覚に比べて物体検出精度を向上させることができる。しかし、敵対的な攻撃はディープラーニングのCODモデルに潜在的な脅威を与え、高い出力の不確実性をもたらします。攻撃モデルが未知であるため、自律走行車のような非常に動的な知覚シーンにおいて、CODの耐性を向上させ、出力の不確実性を定量化することはさらに困難となる。本研究では、Trusted Uncertainty Quantification in Collaborative Perceptionフレームワーク(TUQCP)を提案する。TUQCPは、敵対的訓練と不確実性定量化技術の両方を活用し、既存のCODモデルの敵対的頑健性を強化する。具体的には、TUQCPはまず、敵対的訓練により、物体検出協調時にランダムに選択されたエージェントの共有情報に摂動を加える。次にTUQCPは、学習ベースのモジュールによる出力の不確実性推定と、適合予測による不確実性校正を提供することで、敵対的攻撃の影響を緩和する。我々のフレームワークは、初期・中間協調CODモデルと単一エージェント物体検出モデルで動作する。自律走行のための包括的な協調知覚データセットであるV2X-SimでTUQCPを評価し、同じ敵対的攻撃下でベースラインと比較して物体検出精度が80.41%向上することを実証する。TUQCPは、敵対的攻撃下でのCODに対する不確実性定量化の重要性を実証している。

要約(オリジナル)

Collaborative Object Detection (COD) and collaborative perception can integrate data or features from various entities, and improve object detection accuracy compared with individual perception. However, adversarial attacks pose a potential threat to the deep learning COD models, and introduce high output uncertainty. With unknown attack models, it becomes even more challenging to improve COD resiliency and quantify the output uncertainty for highly dynamic perception scenes such as autonomous vehicles. In this study, we propose the Trusted Uncertainty Quantification in Collaborative Perception framework (TUQCP). TUQCP leverages both adversarial training and uncertainty quantification techniques to enhance the adversarial robustness of existing COD models. More specifically, TUQCP first adds perturbations to the shared information of randomly selected agents during object detection collaboration by adversarial training. TUQCP then alleviates the impacts of adversarial attacks by providing output uncertainty estimation through learning-based module and uncertainty calibration through conformal prediction. Our framework works for early and intermediate collaboration COD models and single-agent object detection models. We evaluate TUQCP on V2X-Sim, a comprehensive collaborative perception dataset for autonomous driving, and demonstrate a 80.41% improvement in object detection accuracy compared to the baselines under the same adversarial attacks. TUQCP demonstrates the importance of uncertainty quantification to COD under adversarial attacks.

arxiv情報

著者 Huiqun Huang,Cong Chen,Jean-Philippe Monteuuis,Jonathan Petit,Fei Miao
発行日 2025-02-04 18:03:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク