Bridging the Gap: Regularized Reinforcement Learning for Improved Classical Motion Planning with Safety Modules

要約

従来のナビゲーション プランナーは、安全なナビゲーションを提供できますが、多くの場合最適ではなく、人間の規範の遵守が妨げられます。
ML ベースの最新の自律ナビゲーション アルゴリズムは、より自然で人間に準拠したナビゲーションを模倣できますが、通常は大規模で現実的なデータセットが必要であり、常に安全性が保証されるわけではありません。
強化学習を導くために古典的なアルゴリズムを活用するアプローチを紹介します。
これにより、基礎となる RL アルゴリズムの結果と収束率が大幅に向上し、プロセスを開始するために人間による専門家のデモンストレーションは必要ありません。
さらに、安全性を確保するために従来のプランナーに切り替えることができる実用的なフォールバック システムが組み込まれています。
その成果は、従来のアルゴリズムに基づいて構築され、人間のコンプライアンスを確保し、安全性を保証するためにアルゴリズムを改善する、モバイル ナビゲーション用の効率的な ML アプローチのサンプルです。

要約(オリジナル)

Classical navigation planners can provide safe navigation, albeit often suboptimally and with hindered human norm compliance. ML-based, contemporary autonomous navigation algorithms can imitate more natural and humancompliant navigation, but usually require large and realistic datasets and do not always provide safety guarantees. We present an approach that leverages a classical algorithm to guide reinforcement learning. This greatly improves the results and convergence rate of the underlying RL algorithm and requires no human-expert demonstrations to jump-start the process. Additionally, we incorporate a practical fallback system that can switch back to a classical planner to ensure safety. The outcome is a sample efficient ML approach for mobile navigation that builds on classical algorithms, improves them to ensure human compliance, and guarantees safety.

arxiv情報

著者 Elias Goldsztejn,Ronen I. Brafman
発行日 2024-03-27 12:55:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク