Developing Path Planning with Behavioral Cloning and Proximal Policy Optimization for Path-Tracking and Static Obstacle Nudging

要約

自動運転では、模倣学習(IL)と強化学習(RL)を利用したエンドツーエンドの手法がますます一般的になってきています。
ただし、古典的なロボット工学のワークフローのような明示的な推論や、視野を持った計画が含まれていないため、暗黙的で近視眼的な戦略が得られます。
この論文では、経路追跡に Behavioral Cloning (BC) を使用し、静的障害物ナッジに Proximal Policy Optimization (PPO) を使用する経路計画手法を紹介します。
横方向のオフセット値を出力して、指定された基準ウェイポイントを調整し、さまざまなコントローラーに対して変更されたパスを実行します。
実験結果は、このアルゴリズムが経路追跡コントローラーの熟練したパフォーマンスを模倣する経路追跡を実行し、固定障害物への衝突を回避できることを示しています。
この方法は、自動運転の経路計画問題において、学習ベースの方法を使用して計画を立てるという優れた試みを行っています。

要約(オリジナル)

In autonomous driving, end-to-end methods utilizing Imitation Learning (IL) and Reinforcement Learning (RL) are becoming more and more common. However, they do not involve explicit reasoning like classic robotics workflow and planning with horizons, resulting in strategies implicit and myopic. In this paper, we introduce a path planning method that uses Behavioral Cloning (BC) for path-tracking and Proximal Policy Optimization (PPO) for static obstacle nudging. It outputs lateral offset values to adjust the given reference waypoints and performs modified path for different controllers. Experimental results show that the algorithm can do path following that mimics the expert performance of path-tracking controllers, and avoid collision to fixed obstacles. The method makes a good attempt at planning with learning-based methods in path planning problems of autonomous driving.

arxiv情報

著者 Mingyan Zhou,Biao Wang,Tian Tan,Xiatao Sun
発行日 2024-10-22 06:23:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク