PlanT: Explainable Planning Transformers via Object-Level Representations

要約

複雑な環境で最適なルートを計画するには、周囲のシーンについて効率的に推論する必要があります。
人間のドライバーは重要なオブジェクトに優先順位を付け、決定に関係のない詳細を無視しますが、学習ベースのプランナーは通常、すべての車両と道路のコンテキスト情報を含む高密度の高次元グリッド表現から特徴を抽出します。
このホワイト ペーパーでは、PlanT を提案します。これは、標準的な変圧器アーキテクチャを使用する自動運転のコンテキストで計画を立てるための新しいアプローチです。
PlantT は、コンパクトなオブジェクト レベルの入力表現による模倣学習に基づいています。
CARLA の Longest6 ベンチマークでは、PlanT は以前のすべての方法よりも優れており (専門家のドライビング スコアと一致)、推論中に同等のピクセルベースの計画ベースラインよりも 5.3 倍高速です。
PlantT を市販の認識モジュールと組み合わせることで、既存の最先端技術よりも運転スコアの点で 10 ポイント以上優れたセンサーベースの運転システムが提供されます。
さらに、プランナーが関連するオブジェクトを特定する能力を定量化し、意思決定に関する洞察を提供する評価プロトコルを提案します。
私たちの結果は、このオブジェクトが幾何学的に離れていても、PlanT がシーン内の最も関連性の高いオブジェクトに焦点を合わせることができることを示しています。

要約(オリジナル)

Planning an optimal route in a complex environment requires efficient reasoning about the surrounding scene. While human drivers prioritize important objects and ignore details not relevant to the decision, learning-based planners typically extract features from dense, high-dimensional grid representations containing all vehicle and road context information. In this paper, we propose PlanT, a novel approach for planning in the context of self-driving that uses a standard transformer architecture. PlanT is based on imitation learning with a compact object-level input representation. On the Longest6 benchmark for CARLA, PlanT outperforms all prior methods (matching the driving score of the expert) while being 5.3x faster than equivalent pixel-based planning baselines during inference. Combining PlanT with an off-the-shelf perception module provides a sensor-based driving system that is more than 10 points better in terms of driving score than the existing state of the art. Furthermore, we propose an evaluation protocol to quantify the ability of planners to identify relevant objects, providing insights regarding their decision-making. Our results indicate that PlanT can focus on the most relevant object in the scene, even when this object is geometrically distant.

arxiv情報

著者 Katrin Renz,Kashyap Chitta,Otniel-Bogdan Mercea,A. Sophia Koepke,Zeynep Akata,Andreas Geiger
発行日 2022-10-25 17:59:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, cs.RO パーマリンク