Gaitor: Learning a Unified Representation Across Gaits for Real-World Quadruped Locomotion

要約

現在の最先端の四足歩行は、さまざまな複雑な動きを生み出すことができます。
これらの方法は、個別のスキル セット間の切り替えに依存するか、複雑なブラック ボックス モデルを使用して歩行全体の分布を学習します。
あるいは、移動歩行全体のもつれのない 2D 表現を学習する Gaitor を紹介します。
この学習された表現は、閉ループ制御のための計画空間を形成し、連続的な歩行遷移と知覚的な地形横断を実現します。
ゲイターの潜在空間は容易に解釈可能であり、歩行の移行中に新たな目に見えない歩行が出現することがわかります。
潜在スペースは、フットスイングの高さと長さに関して解きほぐされます。
これは、これらの歩行特性が 2D 潜在表現で独立して変化できることを意味します。
シンプルな地形エンコードと、潜在空間で動作する学習済みプランナーを組み合わせて、Gaitor は、不均一な地形に反応しながら、望ましい歩行タイプやスイング特性を含む動作コマンドを受け取ることができます。
ANYmal C プラットフォーム上のシミュレーションと現実世界の両方で Gaitor を評価します。
私たちの知る限り、これは複数の歩行について統一され解釈可能な潜在空間を学習した最初の研究であり、その結果、実際の四足ロボットの異なる移動モード間の継続的なブレンドが可能になります。
この論文の手法と結果の概要は、https://youtu.be/eVFQbRyilCA にあります。

要約(オリジナル)

The current state-of-the-art in quadruped locomotion is able to produce a variety of complex motions. These methods either rely on switching between a discrete set of skills or learn a distribution across gaits using complex black-box models. Alternatively, we present Gaitor, which learns a disentangled and 2D representation across locomotion gaits. This learnt representation forms a planning space for closed-loop control delivering continuous gait transitions and perceptive terrain traversal. Gaitor’s latent space is readily interpretable and we discover that during gait transitions, novel unseen gaits emerge. The latent space is disentangled with respect to footswing heights and lengths. This means that these gait characteristics can be varied independently in the 2D latent representation. Together with a simple terrain encoding and a learnt planner operating in the latent space, Gaitor can take motion commands including desired gait type and swing characteristics all while reacting to uneven terrain. We evaluate Gaitor in both simulation and the real world on the ANYmal C platform. To the best of our knowledge, this is the first work learning a unified and interpretable latent space for multiple gaits, resulting in continuous blending between different locomotion modes on a real quadruped robot. An overview of the methods and results in this paper is found at https://youtu.be/eVFQbRyilCA.

arxiv情報

著者 Alexander L. Mitchell,Wolfgang Merkt,Aristotelis Papatheodorou,Ioannis Havoutis,Ingmar Posner
発行日 2024-10-09 14:27:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク