A Reinforcement Learning-Boosted Motion Planning Framework: Comprehensive Generalization Performance in Autonomous Driving

要約

本研究では、フレネット座標系内の強化学習(RL)エージェントを用いた分析的アルゴリズムに情報を与える、自律運動計画への新しいアプローチを紹介する。この組み合わせは、自律走行における適応性と安全性の課題に直接対処する。運動計画アルゴリズムは、動的で複雑なシナリオをナビゲートするために不可欠である。一方、機械学習技術、特に強化学習(RL)は適応性を提供するが、不安定性と説明可能性の欠如に悩まされる。我々のユニークなソリューションは、従来の運動計画アルゴリズムの予測可能性と安定性を、RLの動的適応性と相乗させることで、複雑な状況を効率的に管理し、変化する環境条件に適応するシステムを実現する。我々の統合されたアプローチの評価では、衝突の大幅な減少、リスク管理の改善、複数のシナリオにわたるゴール成功率の向上が示されている。本研究で使用したコードはオープンソースソフトウェアとして公開されており、以下のリンクからアクセスすることができる:https://github.com/TUM-AVS/Frenetix-RL.

要約(オリジナル)

This study introduces a novel approach to autonomous motion planning, informing an analytical algorithm with a reinforcement learning (RL) agent within a Frenet coordinate system. The combination directly addresses the challenges of adaptability and safety in autonomous driving. Motion planning algorithms are essential for navigating dynamic and complex scenarios. Traditional methods, however, lack the flexibility required for unpredictable environments, whereas machine learning techniques, particularly reinforcement learning (RL), offer adaptability but suffer from instability and a lack of explainability. Our unique solution synergizes the predictability and stability of traditional motion planning algorithms with the dynamic adaptability of RL, resulting in a system that efficiently manages complex situations and adapts to changing environmental conditions. Evaluation of our integrated approach shows a significant reduction in collisions, improved risk management, and improved goal success rates across multiple scenarios. The code used in this research is publicly available as open-source software and can be accessed at the following link: https://github.com/TUM-AVS/Frenetix-RL.

arxiv情報

著者 Rainer Trauth,Alexander Hobmeier,Johannes Betz
発行日 2024-02-02 14:54:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク