要約
このペーパーでは、移動ロボットの 2 つの中核的かつ困難なタスク (自律探索とナビゲーション) に取り組むように設計された深層強化学習 (DRL) ベースのフレームワークである HDPlanner を紹介します。自律探索とナビゲーションでは、ロボットは継続的な対話を通じてタスクの目的を達成するために適応的に軌道を最適化する必要があります。
未知の環境で。
具体的には、HDPlanner は、新しい階層的注意ネットワークに依存して、ロボットが複数の空間スケールにわたって自身の信念を推論し、協調的な決定を順序付けできるようにします。このネットワークでは、長期的な目標が、短期的な有益なタスクの割り当てと有益な経路計画に分解されます。
さらに、HDPlanner の堅牢性を強化するために、対照的な学習ベースの結合最適化を提案します。
私たちは、HDPlanner が、数百のテスト マップや大規模で複雑な Gazebo 環境を含む広範なシミュレーション セットにおいて、最先端の従来の学習ベースのベースラインを大幅に上回るパフォーマンスを示すことを経験的に実証しています。
特に、HDPlanner はリアルタイムの計画を実現し、移動距離を探索ベンチマークと比較して最大 35.7%、ナビゲーション ベンチマークと比較して最大 16.5% 削減します。
さらに、ハードウェアでのアプローチを検証し、屋内と屋外の両方の環境で高品質で適応性のある軌道を生成し、追加のトレーニングなしでその現実世界への適用可能性を強調します。
要約(オリジナル)
In this paper, we introduce HDPlanner, a deep reinforcement learning (DRL) based framework designed to tackle two core and challenging tasks for mobile robots: autonomous exploration and navigation, where the robot must optimize its trajectory adaptively to achieve the task objective through continuous interactions in unknown environments. Specifically, HDPlanner relies on novel hierarchical attention networks to empower the robot to reason about its belief across multiple spatial scales and sequence collaborative decisions, where our networks decompose long-term objectives into short-term informative task assignments and informative path plannings. We further propose a contrastive learning-based joint optimization to enhance the robustness of HDPlanner. We empirically demonstrate that HDPlanner significantly outperforms state-of-the-art conventional and learning-based baselines on an extensive set of simulations, including hundreds of test maps and large-scale, complex Gazebo environments. Notably, HDPlanner achieves real-time planning with travel distances reduced by up to 35.7% compared to exploration benchmarks and by up to 16.5% than navigation benchmarks. Furthermore, we validate our approach on hardware, where it generates high-quality, adaptive trajectories in both indoor and outdoor environments, highlighting its real-world applicability without additional training.
arxiv情報
| 著者 | Jingsong Liang,Yuhong Cao,Yixiao Ma,Hanqi Zhao,Guillaume Sartoretti |
| 発行日 | 2024-08-07 13:38:53+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google