An Efficient and Robust Object-Level Cooperative Perception Framework for Connected and Automated Driving

要約

特に車両の位置情報と姿勢情報が不正確な場合、リアルタイムの要件と帯域幅の制限により、コネクテッドおよび自動運転の協調認識は困難です。
効率的なオブジェクト レベルの協調的認識フレームワークを提案します。このフレームワークでは、3D バウンディング ボックス、位置、姿勢のデータがブロードキャストされ、接続された車両間で受信され、オブジェクト レベルで融合されます。
2 つの Iterative Closest Point (ICP) および Optimal Transport 理論ベースのマッチング アルゴリズムが開発され、車両によって共同で検出された 3D バウンディング ボックス間の相関関係の合計を最大化します。
実験結果は、フレームごとに異なる車両のオブジェクトを関連付けるのに 5 ミリ秒しかかからないことを示しており、さまざまなレベルの位置エラーと方向エラーに対して堅牢なパフォーマンスが達成されます。
一方、提案されたフレームワークは、位置または姿勢のエラーが発生した場合、最先端のベンチマーク方法よりも優れています。

要約(オリジナル)

Cooperative perception is challenging for connected and automated driving because of the real-time requirements and bandwidth limitation, especially when the vehicle location and pose information are inaccurate. We propose an efficient object-level cooperative perception framework, in which data of the 3D bounding boxes, location, and pose are broadcast and received between the connected vehicles, then fused at the object level. Two Iterative Closest Point (ICP) and Optimal Transport theory-based matching algorithms are developed to maximize the total correlations between the 3D bounding boxes jointly detected by the vehicles. Experiment results show that it only takes 5ms to associate objects from different vehicles for each frame, and robust performance is achieved for different levels of location and heading errors. Meanwhile, the proposed framework outperforms the state-of-the-art benchmark methods when location or pose errors occur.

arxiv情報

著者 Zhiying Song,Fuxi Wen,Hailiang Zhang,Jun Li
発行日 2022-10-12 15:07:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.MA, cs.RO パーマリンク