Dynamic V2X Autonomous Perception from Road-to-Vehicle Vision

要約

Vehicle-to-Everything (V2X) 認識は、車両認識の精度を向上させ、それによって自律システムのセキュリティと信頼性を向上させる革新的なテクノロジーです。
ただし、既存の V2X 認識方法は、主に車両ベースのビジョンからの静的なシーンに焦点を当てており、センサーの機能と通信負荷によって制限されます。
V2X 知覚モデルを動的なシーンに適応させるために、路車間ビジョンから V2X 知覚を構築し、適応路車間知覚 (AR2VP) 手法を提示することを提案します。
AR2VPでは、路側機を活用して安定した広範囲のセンシング機能を提供し、通信ハブとして機能します。
AR2VP は、シーン内およびシーン間の両方の変更に取り組むために考案されました。
前者については、車両の知覚を効率的に統合する動的知覚表現モジュールを構築し、車両がシーン内のより包括的な範囲の動的要素を捕捉できるようにします。さらに、路車間の知覚を維持することを目的とした路車間知覚補償モジュールを導入します。
シーン内の変化が存在する場合に、路側機の知覚情報が最大化されます。シーン間の変化については、路側機のストレージ容量を利用して履歴シーン データのサブセットを保持するエクスペリエンス再生メカニズムを実装し、シーン間の変化に応じてモデルの堅牢性を維持します。
場面が切り替わる。
私たちは 3D オブジェクトの検出とセグメンテーションに関する知覚実験を実施しました。その結果、AR2VP はパフォーマンスと帯域幅のトレードオフと動的環境での適応性の両方において優れていることがわかりました。

要約(オリジナル)

Vehicle-to-everything (V2X) perception is an innovative technology that enhances vehicle perception accuracy, thereby elevating the security and reliability of autonomous systems. However, existing V2X perception methods focus on static scenes from mainly vehicle-based vision, which is constrained by sensor capabilities and communication loads. To adapt V2X perception models to dynamic scenes, we propose to build V2X perception from road-to-vehicle vision and present Adaptive Road-to-Vehicle Perception (AR2VP) method. In AR2VP,we leverage roadside units to offer stable, wide-range sensing capabilities and serve as communication hubs. AR2VP is devised to tackle both intra-scene and inter-scene changes. For the former, we construct a dynamic perception representing module, which efficiently integrates vehicle perceptions, enabling vehicles to capture a more comprehensive range of dynamic factors within the scene.Moreover, we introduce a road-to-vehicle perception compensating module, aimed at preserving the maximized roadside unit perception information in the presence of intra-scene changes.For inter-scene changes, we implement an experience replay mechanism leveraging the roadside unit’s storage capacity to retain a subset of historical scene data, maintaining model robustness in response to inter-scene shifts. We conduct perception experiment on 3D object detection and segmentation, and the results show that AR2VP excels in both performance-bandwidth trade-offs and adaptability within dynamic environments.

arxiv情報

著者 Jiayao Tan,Fan Lyu,Linyan Li,Fuyuan Hu,Tingliang Feng,Fenglei Xu,Rui Yao
発行日 2023-10-29 19:01:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.SP パーマリンク