AMO: Adaptive Motion Optimization for Hyper-Dexterous Humanoid Whole-Body Control

要約

ヒューマノイドロボットは、その器用さの多くを、膨大な全身の動きから導き出し、地面からオブジェクトをピッキングするなど、大きな動作ワークスペースを必要とするタスクを可能にします。
ただし、実際のヒューマノイドでこれらの能力を達成することは、自由度が高い(DOF)と非線形のダイナミクスのために困難なままです。
Adaptive Motion Optimization(AMO)を提案します。これは、SIM-to-Real Renuferation Learning(RL)をリアルタイムの適応型全身制御の軌跡最適化と統合するフレームワークです。
動きの模倣RLの分布バイアスを緩和するために、ハイブリッドAMOデータセットを構築し、潜在的にO.O.D.
コマンド。
シミュレーションでAMOを検証し、29ドフのUnitree G1ヒューマノイドロボットで検証し、強力なベースラインと比較して優れた安定性と拡張ワークスペースを示しています。
最後に、AMOの一貫したパフォーマンスが、模倣学習を介して自律的なタスクの実行をサポートし、システムの汎用性と堅牢性を強調していることを示します。

要約(オリジナル)

Humanoid robots derive much of their dexterity from hyper-dexterous whole-body movements, enabling tasks that require a large operational workspace: such as picking objects off the ground. However, achieving these capabilities on real humanoids remains challenging due to their high degrees of freedom (DoF) and nonlinear dynamics. We propose Adaptive Motion Optimization (AMO), a framework that integrates sim-to-real reinforcement learning (RL) with trajectory optimization for real-time, adaptive whole-body control. To mitigate distribution bias in motion imitation RL, we construct a hybrid AMO dataset and train a network capable of robust, on-demand adaptation to potentially O.O.D. commands. We validate AMO in simulation and on a 29-DoF Unitree G1 humanoid robot, demonstrating superior stability and an expanded workspace compared to strong baselines. Finally, we show that AMO’s consistent performance supports autonomous task execution via imitation learning, underscoring the system’s versatility and robustness.

arxiv情報

著者 Jialong Li,Xuxin Cheng,Tianshu Huang,Shiqi Yang,Ri-Zhao Qiu,Xiaolong Wang
発行日 2025-05-06 17:59:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク