DeepIPC: Deeply Integrated Perception and Control for Mobile Robot in Real Environments

要約

移動ロボットを自律的に運転する際の知覚と制御の両方のタスクを処理するエンドツーエンドのマルチタスクモデルであるDeepIPCを提案します。
このモデルは、知覚モジュールとコントローラーモジュールの2つの主要部分で構成されています。
知覚モジュールは、RGB画像と深度マップを使用して、セマンティックセグメンテーションとバーズアイビュー(BEV)セマンティックマッピングを実行し、エンコードされた機能を提供します。
一方、コントローラーモジュールは、GNSSの位置と角速度を測定してこれらの機能を処理し、潜在的な機能に伴うウェイポイントを推定します。
次に、2つの異なるエージェントを使用して、ウェイポイントと潜在的な機能を一連のナビゲーションコントロールに変換し、ロボットを駆動します。
モデルは、運転記録を予測し、実際の環境でさまざまな条件下で自動運転を実行することによって評価されます。
実験結果に基づいて、DeepIPCは、他のモデルと比較してより少ないパラメーターでさえ、最高の運転性とマルチタスクパフォ​​ーマンスを達成します。

要約(オリジナル)

We propose DeepIPC, an end-to-end multi-task model that handles both perception and control tasks in driving a mobile robot autonomously. The model consists of two main parts, perception and controller modules. The perception module takes RGB image and depth map to perform semantic segmentation and bird’s eye view (BEV) semantic mapping along with providing their encoded features. Meanwhile, the controller module processes these features with the measurement of GNSS locations and angular speed to estimate waypoints that come with latent features. Then, two different agents are used to translate waypoints and latent features into a set of navigational controls to drive the robot. The model is evaluated by predicting driving records and performing automated driving under various conditions in the real environment. Based on the experimental results, DeepIPC achieves the best drivability and multi-task performance even with fewer parameters compared to the other models.

arxiv情報

著者 Oskar Natan,Jun Miura
発行日 2022-07-20 14:20:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク