要約
移動ロボットを自律的に駆動する際の認識タスクと制御タスクの両方を処理するエンドツーエンドのマルチタスク モデルである DeepIPC を提案します。
このモデルは、認識モジュールと制御モジュールの 2 つの主要部分で構成されています。
認識モジュールは、RGB イメージと深度マップを取得して、セマンティック セグメンテーションと鳥瞰図 (BEV) セマンティック マッピングを実行し、エンコードされた機能を提供します。
一方、コントローラー モジュールは、これらの機能を GNSS 位置と角速度の測定によって処理し、潜在的な機能に付随するウェイポイントを推定します。
次に、2 つの異なるエージェントを使用して、ウェイポイントと潜在的な特徴を一連のナビゲーション コントロールに変換し、ロボットを駆動します。
走行記録を予測し、実環境の様々な条件下で自動運転を行うことでモデルを評価します。
実験結果に基づいて、DeepIPC は、他のモデルと比較して少ないパラメータでも最高のドライバビリティとマルチタスク パフォーマンスを実現します。
要約(オリジナル)
We propose DeepIPC, an end-to-end multi-task model that handles both perception and control tasks in driving a mobile robot autonomously. The model consists of two main parts, perception and controller modules. The perception module takes RGB image and depth map to perform semantic segmentation and bird’s eye view (BEV) semantic mapping along with providing their encoded features. Meanwhile, the controller module processes these features with the measurement of GNSS locations and angular speed to estimate waypoints that come with latent features. Then, two different agents are used to translate waypoints and latent features into a set of navigational controls to drive the robot. The model is evaluated by predicting driving records and performing automated driving under various conditions in the real environment. Based on the experimental results, DeepIPC achieves the best drivability and multi-task performance even with fewer parameters compared to the other models.
arxiv情報
著者 | Oskar Natan,Jun Miura |
発行日 | 2022-08-02 09:08:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google