V2XP-ASG: Generating Adversarial Scenes for Vehicle-to-Everything Perception

要約

Vehicle-to-Everything 通信技術の最近の進歩により、自動運転車は感覚情報を共有してより優れた知覚性能を得ることができるようになりました。
自動運転車とインテリジェント インフラストラクチャの急速な成長に伴い、V2X 認知システムはまもなく大規模に展開され、安全上重要な問題が生じます: \textit{実世界の前に困難な交通シナリオの下でそのパフォーマンスを評価および改善するにはどうすればよいでしょうか
多様な大規模な現実世界のテスト シーンを収集するのが最も簡単なソリューションのようですが、費用と時間がかかり、コレクションは限られたシナリオしかカバーできません。
この目的のために、最新のLiDARベースのマルチエージェント認識システム用に現実的で挑戦的なシーンを生成できる最初のオープンな敵対的シーンジェネレーターV2XP-ASGを提案します。
V2XP-ASG は、敵対的コラボレーション グラフを構築し、複数のエージェントのポーズを敵対的かつもっともらしい方法で同時に摂動することを学習します。
実験は、V2XP-ASG が広範囲の V2X 認識システムの困難なシーンを効果的に識別できることを示しています。
一方、生成された限られた数の挑戦的なシーンでトレーニングすることにより、V2X 認識システムの精度は、挑戦的なシーンで 12.3\%、通常のシーンで 4\% 向上する可能性があります。
コードは https://github.com/XHwind/V2XP-ASG でリリースされます。

要約(オリジナル)

Recent advancements in Vehicle-to-Everything communication technology have enabled autonomous vehicles to share sensory information to obtain better perception performance. With the rapid growth of autonomous vehicles and intelligent infrastructure, the V2X perception systems will soon be deployed at scale, which raises a safety-critical question: \textit{how can we evaluate and improve its performance under challenging traffic scenarios before the real-world deployment?} Collecting diverse large-scale real-world test scenes seems to be the most straightforward solution, but it is expensive and time-consuming, and the collections can only cover limited scenarios. To this end, we propose the first open adversarial scene generator V2XP-ASG that can produce realistic, challenging scenes for modern LiDAR-based multi-agent perception systems. V2XP-ASG learns to construct an adversarial collaboration graph and simultaneously perturb multiple agents’ poses in an adversarial and plausible manner. The experiments demonstrate that V2XP-ASG can effectively identify challenging scenes for a large range of V2X perception systems. Meanwhile, by training on the limited number of generated challenging scenes, the accuracy of V2X perception systems can be further improved by 12.3\% on challenging and 4\% on normal scenes. Our code will be released at https://github.com/XHwind/V2XP-ASG.

arxiv情報

著者 Hao Xiang,Runsheng Xu,Xin Xia,Zhaoliang Zheng,Bolei Zhou,Jiaqi Ma
発行日 2023-03-14 04:58:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク