要約
運用ドメイン間の分布の変化は、自動運転車 (SDV) の学習モデルのパフォーマンスに重大な影響を与える可能性があります。
これは十分に確立された問題ですが、これまでの研究では主に、動き予測タスクに焦点を当てた微調整などの素朴な解決策が検討されてきました。
この研究では、予測、計画、制御から構成される微分可能な自律性スタックの新しい適応戦略を探索し、閉ループで評価を実行し、見落とされがちな壊滅的な忘却の問題を調査します。
具体的には、低ランク残差デコーダ (LoRD) とマルチタスク微調整という 2 つのシンプルかつ効果的な手法を紹介します。
2 つの実際の自動運転データセット (nuPlan、exiD) で実行された 3 つのモデルにわたる実験を通じて、私たちは手法の有効性を実証し、従来のアプローチにおける開ループ評価と閉ループ評価の間の大きなパフォーマンスのギャップを強調しました。
私たちのアプローチは、標準の微調整と比較して、忘却を最大 23.33% 改善し、閉ループ OOD 駆動スコアを 8.83% 改善します。
要約(オリジナル)
Distribution shifts between operational domains can severely affect the performance of learned models in self-driving vehicles (SDVs). While this is a well-established problem, prior work has mostly explored naive solutions such as fine-tuning, focusing on the motion prediction task. In this work, we explore novel adaptation strategies for differentiable autonomy stacks consisting of prediction, planning, and control, perform evaluation in closed-loop, and investigate the often-overlooked issue of catastrophic forgetting. Specifically, we introduce two simple yet effective techniques: a low-rank residual decoder (LoRD) and multi-task fine-tuning. Through experiments across three models conducted on two real-world autonomous driving datasets (nuPlan, exiD), we demonstrate the effectiveness of our methods and highlight a significant performance gap between open-loop and closed-loop evaluation in prior approaches. Our approach improves forgetting by up to 23.33% and the closed-loop OOD driving score by 8.83% in comparison to standard fine-tuning.
arxiv情報
著者 | Christopher Diehl,Peter Karkus,Sushant Veer,Marco Pavone,Torsten Bertram |
発行日 | 2024-10-15 17:38:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google