PIE: Parkour with Implicit-Explicit Learning Framework for Legged Robots

要約

パルクールは脚式ロボットにとって非常に困難な課題であり、様々な地形を機敏かつスムーズに移動する必要がある。そのためには、ロボットの知覚や作動の信頼性が低いにもかかわらず、ロボット自身の状態と周囲の地形の両方を包括的に理解する必要がある。現在の最先端の手法では、事前に訓練された複雑な高レベルの地形再構成モジュールに依存するか、不正確な知覚による失敗を避けるためにロボットパルクールの可能性を最大限に制限している。本論文では、1段階のエンドツーエンドの学習ベースのパルクールフレームワークを提案する:暗黙的-明示的な二重推定を活用した、脚式ロボットのための暗黙的-明示的学習フレームワーク(PIE)である。このメカニズムにより、信頼性の低い自心深度カメラを搭載した低コストの4脚ロボットであっても、比較的単純な学習プロセスと報酬関数により、困難なパルクール地形で卓越したパフォーマンスを達成することができる。訓練プロセスは完全にシミュレーションで行われるが、我々の実環境での検証では、我々のフレームワークのゼロショット展開が成功し、過酷な地形での優れたパルクールパフォーマンスが実証された。

要約(オリジナル)

Parkour presents a highly challenging task for legged robots, requiring them to traverse various terrains with agile and smooth locomotion. This necessitates comprehensive understanding of both the robot’s own state and the surrounding terrain, despite the inherent unreliability of robot perception and actuation. Current state-of-the-art methods either rely on complex pre-trained high-level terrain reconstruction modules or limit the maximum potential of robot parkour to avoid failure due to inaccurate perception. In this paper, we propose a one-stage end-to-end learning-based parkour framework: Parkour with Implicit-Explicit learning framework for legged robots (PIE) that leverages dual-level implicit-explicit estimation. With this mechanism, even a low-cost quadruped robot equipped with an unreliable egocentric depth camera can achieve exceptional performance on challenging parkour terrains using a relatively simple training process and reward function. While the training process is conducted entirely in simulation, our real-world validation demonstrates successful zero-shot deployment of our framework, showcasing superior parkour performance on harsh terrains.

arxiv情報

著者 Shixin Luo,Songbo Li,Ruiqi Yu,Zhicheng Wang,Jun Wu,Qiuguo Zhu
発行日 2024-09-03 07:34:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク