DeepIPCv2: LiDAR-powered Robust Environmental Perception and Navigational Control for Autonomous Vehicle

要約

DeepIPCv2は、LiDARセンサーを使用して環境を認識する自律走行モデルであり、特に、すべてがはっきりと見えないような劣悪な照明条件下で走行する場合に、よりロバストなドライバビリティを実現する。DeepIPCv2は、LiDARの点群セットを主な知覚入力とします。点群データは照度変化の影響を受けないため、どのような状況であっても周囲の状況を明確に観察することができます。この結果、より良いシーン理解と、コントローラモジュールが適切に航法制御を推定するのをサポートするために、知覚モジュールによって提供される安定した特徴が得られる。その性能を評価するために、我々は、一連の運転記録を予測するためにモデルを展開し、3つの異なる条件下で実際の自動運転を実行することにより、いくつかのテストを実施する。また、その性能を正当化するために、アブレーションや最近のモデルとの比較研究も行っている。実験結果に基づき、DeepIPCv2は、すべての運転シナリオにおいて最高のドライバビリティを達成することで、ロバストな性能を示す。さらに、将来の研究をサポートするために、コードとデータを https://github.com/oskarnatan/DeepIPCv2 にアップロードする予定です。

要約(オリジナル)

We present DeepIPCv2, an autonomous driving model that perceives the environment using a LiDAR sensor for more robust drivability, especially when driving under poor illumination conditions where everything is not clearly visible. DeepIPCv2 takes a set of LiDAR point clouds as the main perception input. Since point clouds are not affected by illumination changes, they can provide a clear observation of the surroundings no matter what the condition is. This results in a better scene understanding and stable features provided by the perception module to support the controller module in estimating navigational control properly. To evaluate its performance, we conduct several tests by deploying the model to predict a set of driving records and perform real automated driving under three different conditions. We also conduct ablation and comparative studies with some recent models to justify its performance. Based on the experimental results, DeepIPCv2 shows a robust performance by achieving the best drivability in all driving scenarios. Furthermore, to support future research, we will upload the codes and data to https://github.com/oskarnatan/DeepIPCv2.

arxiv情報

著者 Oskar Natan,Jun Miura
発行日 2024-04-04 04:07:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク