Traversability-Aware Legged Navigation by Learning from Real-World Visual Data

要約

脚による移動によってもたらされる機動性の向上により、四足ロボットは複雑で構造化されていない環境を移動できるようになります。
しかし、さまざまな地形を移動する際のさまざまなエネルギーコストを考慮しながら機敏な移動を最適化することは、依然として未解決の課題です。
これまでの研究のほとんどは、人間がラベルを付けた環境特徴に基づいて通過コストを推定して軌道を計画することに焦点を当てていました。
しかし、この人間中心のアプローチは、困難な地形上でのロボット移動コントローラーのさまざまな能力を考慮していないため、不十分です。
これに対処するために、ロボットの移動コントローラの価値関数に基づいて、ロボット中心の方法で新しい移動可能性推定器を開発します。
この推定器は、新しい学習ベースの RGBD ナビゲーション フレームワークに統合されています。
このフレームワークは、目標を達成しながら障害物や通過しにくい地形を回避するようにロボットをガイドするプランナーを開発します。
ナビゲーション プランナーのトレーニングは、サンプルの効率的な強化学習手法を使用して、現実世界で直接実行されます。
広範なベンチマークを通じて、提案されたフレームワークが、実世界のトレーニングのための正確な通過性コスト推定とマルチモーダルデータ(ロボットの色と深さの視覚、および固有受容フィードバック)からの効率的な学習において最高のパフォーマンスを達成することを実証します。
提案された方法を使用すると、四足歩行ロボットは、深度視覚のみを使用して分類するのが難しい困難な地形を含むさまざまな現実世界の環境で、試行錯誤を通じて、通過可能性を意識したナビゲーションを実行する方法を学習します。

要約(オリジナル)

The enhanced mobility brought by legged locomotion empowers quadrupedal robots to navigate through complex and unstructured environments. However, optimizing agile locomotion while accounting for the varying energy costs of traversing different terrains remains an open challenge. Most previous work focuses on planning trajectories with traversability cost estimation based on human-labeled environmental features. However, this human-centric approach is insufficient because it does not account for the varying capabilities of the robot locomotion controllers over challenging terrains. To address this, we develop a novel traversability estimator in a robot-centric manner, based on the value function of the robot’s locomotion controller. This estimator is integrated into a new learning-based RGBD navigation framework. The framework develops a planner that guides the robot in avoiding obstacles and hard-to-traverse terrains while reaching its goals. The training of the navigation planner is directly performed in the real world using a sample efficient reinforcement learning method. Through extensive benchmarking, we demonstrate that the proposed framework achieves the best performance in accurate traversability cost estimation and efficient learning from multi-modal data (the robot’s color and depth vision, and proprioceptive feedback) for real-world training. Using the proposed method, a quadrupedal robot learns to perform traversability-aware navigation through trial and error in various real-world environments with challenging terrains that are difficult to classify using depth vision alone.

arxiv情報

著者 Hongbo Zhang,Zhongyu Li,Xuanqi Zeng,Laura Smith,Kyle Stachowicz,Dhruv Shah,Linzhu Yue,Zhitao Song,Weipeng Xia,Sergey Levine,Koushil Sreenath,Yun-hui Liu
発行日 2024-10-14 15:25:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク