A Detection and Filtering Framework for Collaborative Localization

要約

今日では、車両の運転および駐車機能においてドライバーを支援する車両の先進運転支援システム (ADAS) など、自動運転車両 (AV) がますます現実的になってきています。
AV の位置特定の問題は、主にカメラ、LiDAR、レーダーなどの複数のセンサーに依存します。
これらのセンサーの製造、設置、校正、保守には非常に費用がかかるため、AV の全体的なコストが増加します。
この研究では、隊列走行のコンテキストにおいて、ADAS カテゴリに属する​​車両の位置特定を改善する手段を検討します。この場合、ADAS 車両は、高精度のセンサー スイートを備えた先頭の「スマート」 AV に従います。
私たちは、フィルタリング フレームワークを使用して視覚とオドメトリから得られた姿勢情報を組み合わせて、スマート車両に追従する ADAS 車両の位置特定を改善することを提案し、結果を生み出します。

要約(オリジナル)

Increasingly, autonomous vehicles (AVs) are becoming a reality, such as the Advanced Driver Assistance Systems (ADAS) in vehicles that assist drivers in driving and parking functions with vehicles today. The localization problem for AVs relies primarily on multiple sensors, including cameras, LiDARs, and radars. Manufacturing, installing, calibrating, and maintaining these sensors can be very expensive, thereby increasing the overall cost of AVs. This research explores the means to improve localization on vehicles belonging to the ADAS category in a platooning context, where an ADAS vehicle follows a lead ‘Smart’ AV equipped with a highly accurate sensor suite. We propose and produce results by using a filtering framework to combine pose information derived from vision and odometry to improve the localization of the ADAS vehicle that follows the smart vehicle.

arxiv情報

著者 Thirumalaesh Ashokkumar,Katherine A Skinner,Siddarth Agarwal,Ankit Vora,Ashutosh Bhown
発行日 2024-03-08 18:33:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク