Walking with Terrain Reconstruction: Learning to Traverse Risky Sparse Footholds

要約

足場がまばらで危険な地形を横断することは、脚式ロボットにとって大きな課題であり、安全な場所に正確に足を配置する必要がある。包括的な外界情報を取得するために、先行研究ではモーションキャプチャシステムやマッピング技術を用いてロコモーションポリシー用のハイトマップを生成している。しかし、これらのアプローチは特殊なパイプラインを必要とし、多くの場合、さらなるノイズをもたらします。しかし、これらの手法では、モーションキャプチャやマッピング技術に特化したパイプラインが必要であり、また、ノイズが混入しやすいという問題がある。本論文では、固有感覚と深度画像のみに依存するエンドツーエンドの強化学習が、高いスパース性とランダム性を持つ危険な地形を横断できることを実証する。本手法は、明確な特徴と、視覚的特徴抽出と動き生成の仲介役となるハイトマップからの十分な情報の利点を活用し、局所的な地形再構成を導入する。これにより、重要な地形情報を効果的に表現し、記憶することが可能となる。提案するフレームワークを低価格の4足歩行ロボットに展開し、様々な困難な地形での機敏で適応的なロコモーションを実現し、実世界のシナリオにおける卓越した性能を示す。ビデオ:youtu.be/Rj9v5EZsn-M.

要約(オリジナル)

Traversing risky terrains with sparse footholds presents significant challenges for legged robots, requiring precise foot placement in safe areas. To acquire comprehensive exteroceptive information, prior studies have employed motion capture systems or mapping techniques to generate heightmap for locomotion policy. However, these approaches require specialized pipelines and often introduce additional noise. While depth images from egocentric vision systems are cost-effective, their limited field of view and sparse information hinder the integration of terrain structure details into implicit features, which are essential for generating precise actions. In this paper, we demonstrate that end-to-end reinforcement learning relying solely on proprioception and depth images is capable of traversing risky terrains with high sparsity and randomness. Our method introduces local terrain reconstruction, leveraging the benefits of clear features and sufficient information from the heightmap, which serves as an intermediary for visual feature extraction and motion generation. This allows the policy to effectively represent and memorize critical terrain information. We deploy the proposed framework on a low-cost quadrupedal robot, achieving agile and adaptive locomotion across various challenging terrains and showcasing outstanding performance in real-world scenarios. Video at: youtu.be/Rj9v5EZsn-M.

arxiv情報

著者 Ruiqi Yu,Qianshi Wang,Yizhen Wang,Zhicheng Wang,Jun Wu,Qiuguo Zhu
発行日 2025-03-03 08:59:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク