VAPOR: Holonomic Legged Robot Navigation in Outdoor Vegetation Using Offline Reinforcement Learning

要約

我々は、オフライン強化学習(RL)を使用して、構造化されていない植物の密集した屋外環境で自律脚式ロボットナビゲーションを行うための新しい方法であるVAPORを紹介します。
私たちの方法は、実際の屋外植生で収集されたラベルなしのデータから新しい RL ポリシーをトレーニングします。
このポリシーは、3D LiDAR 点群から派生した高さと強度ベースのコスト マップ、目標コスト マップ、および処理された固有受容データを状態入力として使用し、高さ、密度、堅固さなどの周囲の植生の物理的および幾何学的特性を学習します。
ナビゲーション用の剛性。
エンドツーエンドのポリシー アクションを使用する代わりに、完全にトレーニングされた RL ポリシーの Q ネットワークを使用して、密集した狭い通路を移動し、背の高い草や植物などの植生への閉じ込めを防ぐことができる新しい適応プランナーから生成された動的に実行可能なロボット アクションを評価します。
茂み。
私たちは、屋外の複雑な植生にある脚式ロボットでこの方法の機能を実証します。
既存のエンドツーエンドのオフライン RL および屋外ナビゲーション方法と比較して、成功率の向上、平均消費電力の減少、正規化された軌道長の減少が観察されています。

要約(オリジナル)

We present VAPOR, a novel method for autonomous legged robot navigation in unstructured, densely vegetated outdoor environments using Offline Reinforcement Learning (RL). Our method trains a novel RL policy from unlabeled data collected in real outdoor vegetation. This policy uses height and intensity-based cost maps derived from 3D LiDAR point clouds, a goal cost map, and processed proprioception data as state inputs, and learns the physical and geometric properties of the surrounding vegetation such as height, density, and solidity/stiffness for navigation. Instead of using end-to-end policy actions, the fully-trained RL policy’s Q network is used to evaluate dynamically feasible robot actions generated from a novel adaptive planner capable of navigating through dense narrow passages and preventing entrapment in vegetation such as tall grass and bushes. We demonstrate our method’s capabilities on a legged robot in complex outdoor vegetation. We observe an improvement in success rates, a decrease in average power consumption, and decrease in normalized trajectory length compared to both existing end-to-end offline RL and outdoor navigation methods.

arxiv情報

著者 Kasun Weerakoon,Adarsh Jagan Sathyamoorthy,Mohamed Elnoor,Dinesh Manocha
発行日 2023-09-14 16:21:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク