Bridging Deep Reinforcement Learning and Motion Planning for Model-Free Navigation in Cluttered Environments

要約

ディープ補強学習(DRL)は、最適なポリシーを学習するための強力なモデルのないパラダイムとして浮上しています。
ただし、散らかった環境を備えたナビゲーションタスクでは、DRLメソッドは、特にまばらな報酬やシステム障害を伴う複雑なダイナミクスの下で、探索が不十分な場合が多いことがよくあります。
この課題に対処するために、一般的なグラフベースのモーションプランニングをDRLに橋渡しし、エージェントが雑然とした空間をより効果的に探索し、望ましいナビゲーションパフォーマンスを実現できるようにします。
具体的には、状態空間全体に及ぶグラフ構造に基づいた密な報酬関数を設計します。
このグラフは、豊富なガイダンスを提供し、エージェントを最適な戦略に向けて導きます。
挑戦的な環境でのアプローチを検証し、探査効率とタスクの成功率の大幅な改善を実証します。

要約(オリジナル)

Deep Reinforcement Learning (DRL) has emerged as a powerful model-free paradigm for learning optimal policies. However, in navigation tasks with cluttered environments, DRL methods often suffer from insufficient exploration, especially under sparse rewards or complex dynamics with system disturbances. To address this challenge, we bridge general graph-based motion planning with DRL, enabling agents to explore cluttered spaces more effectively and achieve desired navigation performance. Specifically, we design a dense reward function grounded in a graph structure that spans the entire state space. This graph provides rich guidance, steering the agent toward optimal strategies. We validate our approach in challenging environments, demonstrating substantial improvements in exploration efficiency and task success rates.

arxiv情報

著者 Licheng Luo,Mingyu Cai
発行日 2025-05-01 03:32:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク