要約
この論文では、不均一な制約を備えた動的環境でのロボットナビゲーションのための新しい階層的なフレームワークを提案します。
当社のアプローチは、Rehonforce Learning(RL)を介してトレーニングされたグラフニューラルネットワークを活用して、ローカルの目標推奨事項として策定されたロボットのコストを効率的に推定します。
その後、運動学的制約を説明する時空間のパス検索モジュールを使用して、明示的な制約施行に使用される非凸最適化問題を解決するための参照軌跡を生成するために採用されます。
さらに重要なことは、提案されたプランナーのエンドツーエンドのトレーニングを可能にする、インクリメンタルなアクションマスキングメカニズムと特権学習戦略を導入することです。
シミュレーションと現実世界の両方の実験は、提案された方法が複雑な動的環境でのローカル計画に効果的に対処し、最先端の(SOTA)パフォーマンスを達成することを示しています。
既存の学習最適化ハイブリッドメソッドと比較して、このアプローチは高忠実度シミュレーション環境への依存性を排除し、計算効率とトレーニングスケーラビリティに大きな利点をもたらします。
コードは、論文を受け入れるとオープンソースとしてリリースされます。
要約(オリジナル)
In this paper, we propose a novel hierarchical framework for robot navigation in dynamic environments with heterogeneous constraints. Our approach leverages a graph neural network trained via reinforcement learning (RL) to efficiently estimate the robot’s cost-to-go, formulated as local goal recommendations. A spatio-temporal path-searching module, which accounts for kinematic constraints, is then employed to generate a reference trajectory to facilitate solving the non-convex optimization problem used for explicit constraint enforcement. More importantly, we introduce an incremental action-masking mechanism and a privileged learning strategy, enabling end-to-end training of the proposed planner. Both simulation and real-world experiments demonstrate that the proposed method effectively addresses local planning in complex dynamic environments, achieving state-of-the-art (SOTA) performance. Compared with existing learning-optimization hybrid methods, our approach eliminates the dependency on high-fidelity simulation environments, offering significant advantages in computational efficiency and training scalability. The code will be released as open-source upon acceptance of the paper.
arxiv情報
著者 | Huajian Liu,Yixuan Feng,Wei Dong,Kunpeng Fan,Chao Wang,Yongzhuo Gao |
発行日 | 2025-06-11 15:31:25+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google