要約
学習ベースのプランナーは、データからの微妙な相互作用について推論することを学び、ルールベースのプランナーから生じる厳格な行動を克服することにより、自然な人間のような運転行動を生成します。
それにもかかわらず、データ駆動型のアプローチはしばしば、まれで安全批判的なシナリオと闘い、生成された軌跡にわたって制限された制御可能性を提供します。
これらの課題に対処するために、トレーニングデータセットから最も関連性の高い専門家デモを取得することにより、拡散ベースの計画ポリシーを初期化する検索された生成(RAG)フレームワークであるRealdriveを提案します。
現在の観察と検索された例を除去プロセスを通じて補間することにより、私たちのアプローチは、多様なシナリオ全体で細粒の制御と安全な行動を可能にし、検索されたシナリオによって提供される強力な事前を活用します。
私たちが生み出すもう1つの重要な洞察は、計画ベースの目標で訓練されたタスク関連の検索モデルが、タスクに依存しないレトリバーと比較して、フレームワークで優れた計画パフォーマンスをもたらすことです。
実験結果は、標準的な学習ベースのプランナーと比較して、ロングテールイベントへの一般化の改善と軌道の多様性の向上を示しています。WaymoOpenMotion Datasetの衝突率が40%減少していることがわかります。
要約(オリジナル)
Learning-based planners generate natural human-like driving behaviors by learning to reason about nuanced interactions from data, overcoming the rigid behaviors that arise from rule-based planners. Nonetheless, data-driven approaches often struggle with rare, safety-critical scenarios and offer limited controllability over the generated trajectories. To address these challenges, we propose RealDrive, a Retrieval-Augmented Generation (RAG) framework that initializes a diffusion-based planning policy by retrieving the most relevant expert demonstrations from the training dataset. By interpolating between current observations and retrieved examples through a denoising process, our approach enables fine-grained control and safe behavior across diverse scenarios, leveraging the strong prior provided by the retrieved scenario. Another key insight we produce is that a task-relevant retrieval model trained with planning-based objectives results in superior planning performance in our framework compared to a task-agnostic retriever. Experimental results demonstrate improved generalization to long-tail events and enhanced trajectory diversity compared to standard learning-based planners — we observe a 40% reduction in collision rate on the Waymo Open Motion dataset with RAG.
arxiv情報
著者 | Wenhao Ding,Sushant Veer,Yuxiao Chen,Yulong Cao,Chaowei Xiao,Marco Pavone |
発行日 | 2025-05-30 17:15:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google