要約
認識は、自動化された車両(AVS)の重要なコンポーネントです。
ただし、AVSに取り付けられたセンサーは、周辺地域の他の車両、インフラストラクチャ、またはオブジェクトからの障害により、多くの場合、死角に遭遇します。
計画および制御アルゴリズムの最近の進歩は、AVSが低速での盲点からの突然のオブジェクトの外観に反応するのに役立ちますが、課題は高速と複雑な交差点のままです。
車両からインフラストラクチャ(V2I)テクノロジーは、複雑な交差点でAVSのシーン表現を強化することを約束し、交通規則に違反する敵車両に十分な時間と距離を提供します。
インフラストラクチャベースの車両の検出と追跡のための既存の方法のほとんどは、Lidar-CameraやRadar-CameraなどのLidar、レーダー、またはセンサー融合方法に依存しています。
Lidarとレーダーは正確な空間情報を提供しますが、ポイントクラウドデータのスパース性により、遠く離れたオブジェクトの詳細なオブジェクトの輪郭をキャプチャする能力が制限され、3Dオブジェクト検出結果が不正確になります。
さらに、あらゆる交差点にLIDARまたはレーダーが存在しないと、V2Iテクノロジーの実装コストが増加します。
これらの課題に対処するために、このペーパーでは、3Dオブジェクトを検出するために道路交差点で単眼の交通カメラを利用するV2Iフレームワークを提案します。
次に、道端のユニット(RSU)の結果は、非同期後期融合法を使用してシーンの表現を強化するためにオンボードシステムと組み合わされます。
さらに、提案されたフレームワークは、RSUからの処理と送信の遅延を補うための時間遅延補償モジュールを提供します。
最後に、V2Iフレームワークは、WAYMOの業界レポートで説明されているシナリオと同様のシナリオをシミュレートおよび検証することによりテストされます。
結果は、提案された方法がシーンの表現とAVの知覚範囲を改善し、敵車両に反応するのに十分な時間とスペースを与えることを示しています。
要約(オリジナル)
Perception is a key component of Automated vehicles (AVs). However, sensors mounted to the AVs often encounter blind spots due to obstructions from other vehicles, infrastructure, or objects in the surrounding area. While recent advancements in planning and control algorithms help AVs react to sudden object appearances from blind spots at low speeds and less complex scenarios, challenges remain at high speeds and complex intersections. Vehicle to Infrastructure (V2I) technology promises to enhance scene representation for AVs in complex intersections, providing sufficient time and distance to react to adversary vehicles violating traffic rules. Most existing methods for infrastructure-based vehicle detection and tracking rely on LIDAR, RADAR or sensor fusion methods, such as LIDAR-Camera and RADAR-Camera. Although LIDAR and RADAR provide accurate spatial information, the sparsity of point cloud data limits its ability to capture detailed object contours of objects far away, resulting in inaccurate 3D object detection results. Furthermore, the absence of LIDAR or RADAR at every intersection increases the cost of implementing V2I technology. To address these challenges, this paper proposes a V2I framework that utilizes monocular traffic cameras at road intersections to detect 3D objects. The results from the roadside unit (RSU) are then combined with the on-board system using an asynchronous late fusion method to enhance scene representation. Additionally, the proposed framework provides a time delay compensation module to compensate for the processing and transmission delay from the RSU. Lastly, the V2I framework is tested by simulating and validating a scenario similar to the one described in an industry report by Waymo. The results show that the proposed method improves the scene representation and the AV’s perception range, giving enough time and space to react to adversary vehicles.
arxiv情報
著者 | Nithish Kumar Saravanan,Varun Jammula,Yezhou Yang,Jeffrey Wishart,Junfeng Zhao |
発行日 | 2025-04-10 23:48:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google