H-GAP: Humanoid Control with a Generalist Planner

要約

ヒューマノイド制御は、人間中心のインフラストラクチャに統合する手段を提供し、物理学駆動のヒューマノイド アニメーションを可能にする重要な研究課題です。
この分野における困難な課題は、高次元のアクション空間での最適化の難しさと、ヒューマノイドの二足歩行の形態によってもたらされる不安定性に起因しています。
しかし、人間のモーション キャプチャされたデータの広範なコレクションと、MoCapAct などのヒューマノイドの軌跡の派生データセットにより、これらの課題に取り組む道が開かれます。
これに関連して、ヒューマノイド ジェネラリスト オートエンコーディング プランナー (H-GAP) を紹介します。これは、人間のモーション キャプチャされたデータから導出されたヒューマノイド軌道でトレーニングされた状態アクション軌道生成モデルであり、モデル予測制御 (MPC) を使用して下流の制御タスクを適切に処理できます。
56 自由度のヒューマノイドの場合、H-GAP が広範囲の運動動作を表現および生成することを学習することを経験的に示します。
さらに、オンライン対話から学習することなく、これらの動作を柔軟に転送して、計画を通じて新しい下流制御タスクを解決することもできます。
特に、H-GAP は、グラウンド トゥルース ダイナミクス モデルにアクセスできる確立された MPC ベースラインよりも優れており、個別のタスク用にトレーニングされたオフライン RL 手法よりも優れているか、同等です。
最後に、H-GAP のスケーリング特性に関する一連の実証研究を行い、コンピューティングではなく追加データによるパフォーマンス向上の可能性を示しています。
コードとビデオは https://ycxuyingchen.github.io/hgap/ で入手できます。

要約(オリジナル)

Humanoid control is an important research challenge offering avenues for integration into human-centric infrastructures and enabling physics-driven humanoid animations. The daunting challenges in this field stem from the difficulty of optimizing in high-dimensional action spaces and the instability introduced by the bipedal morphology of humanoids. However, the extensive collection of human motion-captured data and the derived datasets of humanoid trajectories, such as MoCapAct, paves the way to tackle these challenges. In this context, we present Humanoid Generalist Autoencoding Planner (H-GAP), a state-action trajectory generative model trained on humanoid trajectories derived from human motion-captured data, capable of adeptly handling downstream control tasks with Model Predictive Control (MPC). For 56 degrees of freedom humanoid, we empirically demonstrate that H-GAP learns to represent and generate a wide range of motor behaviours. Further, without any learning from online interactions, it can also flexibly transfer these behaviors to solve novel downstream control tasks via planning. Notably, H-GAP excels established MPC baselines that have access to the ground truth dynamics model, and is superior or comparable to offline RL methods trained for individual tasks. Finally, we do a series of empirical studies on the scaling properties of H-GAP, showing the potential for performance gains via additional data but not computing. Code and videos are available at https://ycxuyingchen.github.io/hgap/.

arxiv情報

著者 Zhengyao Jiang,Yingchen Xu,Nolan Wagener,Yicheng Luo,Michael Janner,Edward Grefenstette,Tim Rocktäschel,Yuandong Tian
発行日 2023-12-05 11:40:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク