PIE: Parkour with Implicit-Explicit Learning Framework for Legged Robots

要約

パルクールは脚式ロボットにとって非常に困難な課題であり、機敏でスムーズな移動でさまざまな地形を横断する必要があります。
これには、ロボットの認識と作動が本質的に信頼できないにもかかわらず、ロボット自体の状態と周囲の地形の両方を包括的に理解する必要があります。
現在の最先端の手法は、複雑な事前トレーニング済みの高レベルの地形再構成モジュールに依存するか、不正確な認識による失敗を避けるためにロボットパルクールの最大の可能性を制限するかのどちらかです。
この論文では、1 段階のエンドツーエンド学習ベースのパルクール フレームワーク、すなわち、デュアルレベルの陰的-陽的推定を活用する脚ロボット (PIE) のための暗黙-陽的学習フレームワークを備えたパルクールを提案します。
このメカニズムを使用すると、信頼性の低い自己中心的な深度カメラを備えた低コストの四足ロボットでも、比較的単純なトレーニング プロセスと報酬関数を使用して、困難なパルクール地形で優れたパフォーマンスを達成できます。
トレーニング プロセスは完全にシミュレーションで行われますが、実際の検証ではフレームワークのゼロショット展開が成功し、過酷な地形での優れたパルクール パフォーマンスが実証されました。

要約(オリジナル)

Parkour presents a highly challenging task for legged robots, requiring them to traverse various terrains with agile and smooth locomotion. This necessitates comprehensive understanding of both the robot’s own state and the surrounding terrain, despite the inherent unreliability of robot perception and actuation. Current state-of-the-art methods either rely on complex pre-trained high-level terrain reconstruction modules or limit the maximum potential of robot parkour to avoid failure due to inaccurate perception. In this paper, we propose a one-stage end-to-end learning-based parkour framework: Parkour with Implicit-Explicit learning framework for legged robots (PIE) that leverages dual-level implicit-explicit estimation. With this mechanism, even a low-cost quadruped robot equipped with an unreliable egocentric depth camera can achieve exceptional performance on challenging parkour terrains using a relatively simple training process and reward function. While the training process is conducted entirely in simulation, our real-world validation demonstrates successful zero-shot deployment of our framework, showcasing superior parkour performance on harsh terrains.

arxiv情報

著者 Shixin Luo,Songbo Li,Ruiqi Yu,Zhicheng Wang,Jun Wu,Qiuguo Zhu
発行日 2024-08-25 07:01:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク