DeepIPC: Deeply Integrated Perception and Control for an Autonomous Vehicle in Real Environments

要約

私たちは、車両の運転における認識タスクと制御タスクの両方を処理するエンドツーエンドの自動運転モデル​​である DeepIPC を提案します。
モデルは、認識モジュールとコントローラー モジュールの 2 つの主要な部分で構成されます。
認識モジュールは、RGBD 画像を取得して、セマンティック セグメンテーションと鳥瞰図 (BEV) セマンティック マッピングを実行し、エンコードされた機能を提供します。
一方、コントローラー モジュールは、GNSS 位置と角速度の測定を使用してこれらの特徴を処理し、潜在的な特徴を伴うウェイポイントを推定します。
次に、2 つの異なるエージェントを使用して、ウェイポイントと潜在的なフィーチャを、車両を運転するための一連のナビゲーション コントロールに変換します。
このモデルは、実環境におけるさまざまな条件下で運転記録を予測し、自動運転を実行することで評価されます。
実験結果は、DeepIPC が他のモデルと比較して少ないパラメータでも最高のドライバビリティとマルチタスク パフォーマンスを達成することを示しています。
コードは https://github.com/oskarnatan/DeepIPC で公開されます。

要約(オリジナル)

We propose DeepIPC, an end-to-end autonomous driving model that handles both perception and control tasks in driving a vehicle. The model consists of two main parts, perception and controller modules. The perception module takes an RGBD image to perform semantic segmentation and bird’s eye view (BEV) semantic mapping along with providing their encoded features. Meanwhile, the controller module processes these features with the measurement of GNSS locations and angular speed to estimate waypoints that come with latent features. Then, two different agents are used to translate waypoints and latent features into a set of navigational controls to drive the vehicle. The model is evaluated by predicting driving records and performing automated driving under various conditions in real environments. The experimental results show that DeepIPC achieves the best drivability and multi-task performance even with fewer parameters compared to the other models. Codes will be published at https://github.com/oskarnatan/DeepIPC.

arxiv情報

著者 Oskar Natan,Jun Miura
発行日 2023-06-21 11:31:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク