DeepIPC: Deeply Integrated Perception and Control for an Autonomous Vehicle in Real Environments

要約

本研究では、知覚タスクと制御タスクをシームレスに統合した、自律走行に特化した新しいエンドツーエンドモデルであるDeepIPCを紹介する。これらのタスクを別々に処理する従来のモデルとは異なり、DeepIPCは、セマンティックセグメンテーションのためにRGBD画像を処理し、鳥瞰図(BEV)マッピングを生成する知覚モジュールと、GNSSおよび角速度測定値とともにこれらの洞察を利用して航行ウェイポイントを正確に予測するコントローラモジュールを革新的に組み合わせている。この統合により、DeepIPCは複雑な環境データを実用的な運転コマンドに効率的に変換することができます。我々の包括的な評価では、多様な実世界シナリオにわたって、ドライバビリティとマルチタスク効率の面でDeepIPCの優れた性能が実証され、無駄のないモデル・アーキテクチャを備えたエンドツーエンドの自律走行システムの新たなベンチマークが設定された。この実験結果は、DeepIPCが自律走行ナビゲーションを大幅に強化する可能性を強調するものであり、自律走行技術の開発における一歩前進を約束するものである。さらなる洞察と再現のために、我々はコードとデータセットをhttps://github.com/oskarnatan/DeepIPC。

要約(オリジナル)

In this work, we introduce DeepIPC, a novel end-to-end model tailored for autonomous driving, which seamlessly integrates perception and control tasks. Unlike traditional models that handle these tasks separately, DeepIPC innovatively combines a perception module, which processes RGBD images for semantic segmentation and generates bird’s eye view (BEV) mappings, with a controller module that utilizes these insights along with GNSS and angular speed measurements to accurately predict navigational waypoints. This integration allows DeepIPC to efficiently translate complex environmental data into actionable driving commands. Our comprehensive evaluation demonstrates DeepIPC’s superior performance in terms of drivability and multi-task efficiency across diverse real-world scenarios, setting a new benchmark for end-to-end autonomous driving systems with a leaner model architecture. The experimental results underscore DeepIPC’s potential to significantly enhance autonomous vehicular navigation, promising a step forward in the development of autonomous driving technologies. For further insights and replication, we will make our code and datasets available at https://github.com/oskarnatan/DeepIPC.

arxiv情報

著者 Oskar Natan,Jun Miura
発行日 2024-04-04 04:52:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク