Bridging Deep Reinforcement Learning and Motion Planning for Model-Free Navigation in Cluttered Environments

要約

ディープ補強学習(DRL)は、最適なポリシーを学習するための強力なモデルのないパラダイムとして浮上しています。
ただし、実際のナビゲーションタスクでは、DRLメソッドは、特にシステム障害の下でまばらな報酬または複雑なダイナミクスを備えた乱雑な環境では、探索が不十分な場合がよくあります。
この課題に対処するために、一般的なグラフベースのモーションプランニングをDRLに橋渡しし、エージェントが雑然とした空間をより効果的に探索し、望ましいナビゲーションパフォーマンスを実現できるようにします。
具体的には、状態空間全体に及ぶグラフ構造に基づいた密な報酬関数を設計します。
このグラフは、豊富なガイダンスを提供し、エージェントを最適な戦略に向けて導きます。
挑戦的な環境でのアプローチを検証し、探査効率とタスクの成功率の大幅な改善を実証します。
プロジェクトWebサイトは、https://plen1lune.github.io/overcome_exploration/で入手できます。

要約(オリジナル)

Deep Reinforcement Learning (DRL) has emerged as a powerful model-free paradigm for learning optimal policies. However, in real-world navigation tasks, DRL methods often suffer from insufficient exploration, particularly in cluttered environments with sparse rewards or complex dynamics under system disturbances. To address this challenge, we bridge general graph-based motion planning with DRL, enabling agents to explore cluttered spaces more effectively and achieve desired navigation performance. Specifically, we design a dense reward function grounded in a graph structure that spans the entire state space. This graph provides rich guidance, steering the agent toward optimal strategies. We validate our approach in challenging environments, demonstrating substantial improvements in exploration efficiency and task success rates. The project website is available at: https://plen1lune.github.io/overcome_exploration/

arxiv情報

著者 Licheng Luo,Mingyu Cai
発行日 2025-04-09 21:19:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク