DeepIPC: Deeply Integrated Perception and Control for an Autonomous Vehicle in Real Environments

要約

タイトル:現実世界での自律走行車両のための深い統合型知覚制御 DeepIPC
要約:

– 自動運転において、タスクの知覚と制御を扱うエンドツーエンドのモデル「DeepIPC」を提案する。
– モデルには2つの主要な構成要素である知覚とコントローラモジュールがある。
– 知覚モジュールは、RGBD画像を取得して、意味のあるセグメンテーションと鳥瞰図(BEV)の意味的なマッピングを行い、エンコードされた特徴を提供する。
– 一方、コントローラモジュールは、これらの機能をGNSS位置の測定値や角速度と一緒に処理し、潜在的な特徴を持つウェイポイントの推定を行う。
– そして、2つの異なるエージェントを使用して、ウェイポイントと潜在的な特徴を一連のナビゲーション制御に変換して、車両を運転する。
– モデルは、現実の環境下での様々な条件で自動運転を実行し、運転記録を予測することで評価される。
– 実験結果は、DeepIPCが他のモデルと比較してパラメーターが少なくても最高の運転性能とマルチタスクパフォーマンスを実現していることを示している。
– コードは https://github.com/oskarnatan/DeepIPC で入手可能である。

要約(オリジナル)

We propose DeepIPC, an end-to-end autonomous driving model that handles both perception and control tasks in driving a vehicle. The model consists of two main parts, perception and controller modules. The perception module takes an RGBD image to perform semantic segmentation and bird’s eye view (BEV) semantic mapping along with providing their encoded features. Meanwhile, the controller module processes these features with the measurement of GNSS locations and angular speed to estimate waypoints that come with latent features. Then, two different agents are used to translate waypoints and latent features into a set of navigational controls to drive the vehicle. The model is evaluated by predicting driving records and performing automated driving under various conditions in real environments. The experimental results show that DeepIPC achieves the best drivability and multi-task performance even with fewer parameters compared to the other models. Codes are available at https://github.com/oskarnatan/DeepIPC.

arxiv情報

著者 Oskar Natan,Jun Miura
発行日 2023-04-05 15:15:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク