LoRD: Adapting Differentiable Driving Policies to Distribution Shifts

要約

運用ドメイン間の分布シフトは、自動運転車(SDV)の学習モデルの性能に深刻な影響を与える可能性があります。
これは確立された問題ですが、以前の研究では、モーション予測タスクに焦点を当てて、微調整などの素朴なソリューションをほとんど探求しています。
この作業では、予測、計画、および制御からなる微分可能な自律性スタックの新しい適応戦略を探り、閉ループで評価を実行し、壊滅的な忘却の頻繁に見過ごされている問題を調査します。
具体的には、2つのシンプルでありながら効果的な手法を紹介します。低ランクの残留デコーダー(Lord)とマルチタスクの微調整です。
2つの実際の自律駆動データセット(Nuplan、Exid)で実施された3つのモデルにわたる実験を通じて、方法の有効性を実証し、以前のアプローチでのオープンループと閉ループ評価の間の重要なパフォーマンスギャップを強調します。
私たちのアプローチは、標準的な微調整と比較して、最大23.33%の忘却と閉ループのOOD運転スコアを9.93%改善します。

要約(オリジナル)

Distribution shifts between operational domains can severely affect the performance of learned models in self-driving vehicles (SDVs). While this is a well-established problem, prior work has mostly explored naive solutions such as fine-tuning, focusing on the motion prediction task. In this work, we explore novel adaptation strategies for differentiable autonomy stacks consisting of prediction, planning, and control, perform evaluation in closed-loop, and investigate the often-overlooked issue of catastrophic forgetting. Specifically, we introduce two simple yet effective techniques: a low-rank residual decoder (LoRD) and multi-task fine-tuning. Through experiments across three models conducted on two real-world autonomous driving datasets (nuPlan, exiD), we demonstrate the effectiveness of our methods and highlight a significant performance gap between open-loop and closed-loop evaluation in prior approaches. Our approach improves forgetting by up to 23.33% and the closed-loop OOD driving score by 9.93% in comparison to standard fine-tuning.

arxiv情報

著者 Christopher Diehl,Peter Karkus,Sushant Veer,Marco Pavone,Torsten Bertram
発行日 2025-03-28 14:35:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク