要約
車両の運転における認識と制御の両方のタスクを処理するエンドツーエンドの自動運転モデルである DeepIPC を提案します。
このモデルは、認識モジュールと制御モジュールの 2 つの主要部分で構成されています。
認識モジュールは、RGBD 画像を取得してセマンティック セグメンテーションと鳥瞰図 (BEV) セマンティック マッピングを実行し、エンコードされた機能を提供します。
一方、コントローラー モジュールは、これらの機能を GNSS 位置と角速度の測定によって処理し、潜在的な機能に付随するウェイポイントを推定します。
次に、2 つの異なるエージェントを使用して、ウェイポイントと潜在的な特徴を一連のナビゲーション コントロールに変換し、車両を運転します。
走行記録を予測し、実環境の様々な条件下で自動運転を行うことでモデルを評価します。
実験結果は、DeepIPC が他のモデルと比較して少ないパラメータでも最高のドライバビリティとマルチタスク パフォーマンスを達成することを示しています。
要約(オリジナル)
We propose DeepIPC, an end-to-end autonomous driving model that handles both perception and control tasks in driving a vehicle. The model consists of two main parts, perception and controller modules. The perception module takes an RGBD image to perform semantic segmentation and bird’s eye view (BEV) semantic mapping along with providing their encoded features. Meanwhile, the controller module processes these features with the measurement of GNSS locations and angular speed to estimate waypoints that come with latent features. Then, two different agents are used to translate waypoints and latent features into a set of navigational controls to drive the vehicle. The model is evaluated by predicting driving records and performing automated driving under various conditions in real environments. The experimental results show that DeepIPC achieves the best drivability and multi-task performance even with fewer parameters compared to the other models.
arxiv情報
著者 | Oskar Natan,Jun Miura |
発行日 | 2022-12-14 14:08:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google