要約
協調知覚 (CP) は、コネクテッド 自律車両 (CAV) からの視覚データを活用して、自車両の視野 (FoV) を強化します。
最近の進歩にもかかわらず、現在の CP 手法は自我車両の 360 度の知覚範囲をほぼ均等に拡大していますが、これは 2 つの重要な課題に直面しています。
まず、交通量が不均一に分布している地域では、交通量の少ない方向に焦点を当てても効果は限定的です。
第 2 に、限られた通信予算の下で、あまり重要でない方向に過剰な帯域幅を割り当てると、より重要な領域での認識精度が低下します。
これらの問題に対処するために、私たちは、特定の方向で CP を改善することを目的としたプロアクティブで方向性を認識した CP システムである Direct-CP を提案します。
私たちの重要なアイデアは、自我車両が関心のある方向を積極的に信号で知らせ、注意を再調整して局所的な指向性 CP パフォーマンスを向上できるようにすることです。
これを達成するために、我々はまず、自我車両が重要な方向を識別するのを支援する、RSU 支援の方向マスキングメカニズムを提案します。
さらに、自車両の方向優先度、通信バジェット、および CAV の位置データに基づいて、関連する機能を賢く集約する方向認識選択的注意モジュールを設計します。
さらに、方向重み付け検出損失 (DWLoss) を導入して、方向性 CP 結果とグラウンド トゥルースの間の相違を捕捉し、効果的なモデル トレーニングを促進します。
V2X-Sim 2.0 データセットに関する広範な実験により、私たちのアプローチは、協調的な 3D 物体検出タスクにおける最先端の方法と比べて、関心のある方向で 19.8% 高い局所認識精度と 2.5\% 高い全体的な認識精度を達成することが実証されました。
要約(オリジナル)
Collaborative perception (CP) leverages visual data from connected and autonomous vehicles (CAV) to enhance an ego vehicle’s field of view (FoV). Despite recent progress, current CP methods expand the ego vehicle’s 360-degree perceptual range almost equally, which faces two key challenges. Firstly, in areas with uneven traffic distribution, focusing on directions with little traffic offers limited benefits. Secondly, under limited communication budgets, allocating excessive bandwidth to less critical directions lowers the perception accuracy in more vital areas. To address these issues, we propose Direct-CP, a proactive and direction-aware CP system aiming at improving CP in specific directions. Our key idea is to enable an ego vehicle to proactively signal its interested directions and readjust its attention to enhance local directional CP performance. To achieve this, we first propose an RSU-aided direction masking mechanism that assists an ego vehicle in identifying vital directions. Additionally, we design a direction-aware selective attention module to wisely aggregate pertinent features based on ego vehicle’s directional priorities, communication budget, and the positional data of CAVs. Moreover, we introduce a direction-weighted detection loss (DWLoss) to capture the divergence between directional CP outcomes and the ground truth, facilitating effective model training. Extensive experiments on the V2X-Sim 2.0 dataset demonstrate that our approach achieves 19.8\% higher local perception accuracy in interested directions and 2.5\% higher overall perception accuracy than the state-of-the-art methods in collaborative 3D object detection tasks.
arxiv情報
著者 | Yihang Tao,Senkang Hu,Zhengru Fang,Yuguang Fang |
発行日 | 2024-09-13 13:53:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google