A Benchmark Comparison of Imitation Learning-based Control Policies for Autonomous Racing

要約

スケールレーシングカーによる自動レースは、車両のハンドリングの限界での安全な自動運転のための知覚、計画、および制御アルゴリズムを開発するための効果的なアプローチとしてますます注目を集めています。
自律走行レース用のアジャイル制御ポリシーをトレーニングするために、学習ベースのアプローチでは主に強化学習が利用されますが、結果はまちまちです。
この研究では、シミュレーションとスケールされた現実世界の環境の両方で直接適用される、またはブートストラッピング強化学習に適用されるレーシング車両のさまざまな模倣学習ポリシーのベンチマークを行います。
我々は、インタラクティブな模倣学習手法が従来の模倣学習手法よりも優れたパフォーマンスを発揮し、より優れたサンプル効率のおかげでブートストラップによって強化学習ポリシーのパフォーマンスを大幅に向上できることを示します。
私たちのベンチマークは、模倣学習と強化学習を使用した自律型レースに関する将来の研究の基盤を提供します。

要約(オリジナル)

Autonomous racing with scaled race cars has gained increasing attention as an effective approach for developing perception, planning and control algorithms for safe autonomous driving at the limits of the vehicle’s handling. To train agile control policies for autonomous racing, learning-based approaches largely utilize reinforcement learning, albeit with mixed results. In this study, we benchmark a variety of imitation learning policies for racing vehicles that are applied directly or for bootstrapping reinforcement learning both in simulation and on scaled real-world environments. We show that interactive imitation learning techniques outperform traditional imitation learning methods and can greatly improve the performance of reinforcement learning policies by bootstrapping thanks to its better sample efficiency. Our benchmarks provide a foundation for future research on autonomous racing using Imitation Learning and Reinforcement Learning.

arxiv情報

著者 Xiatao Sun,Mingyan Zhou,Zhijun Zhuang,Shuo Yang,Johannes Betz,Rahul Mangharam
発行日 2023-05-28 06:28:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク