Grasping Diverse Objects with Simulated Humanoids

要約

模擬ヒューマノイドを制御して物体を掴み、物体の軌道に沿って動かす方法を提案します。
器用な手でヒューマノイドを制御するのは困難であるため、従来の方法では、多くの場合、身体のない手を使用し、垂直方向の揚力または短い軌道のみを考慮していました。
この限られた範囲により、アニメーションやシミュレーションに必要なオブジェクト操作への適用が妨げられます。
このギャップを埋めるために、多数 (>1200) のオブジェクトをピックアップし、ランダムに生成された軌道に沿ってオブジェクトを運ぶことができるコントローラーを学習します。
私たちの重要な洞察は、人間のような運動能力を提供し、トレーニングを大幅にスピードアップするヒューマノイドの動作表現を活用することです。
単純化した報酬、状態、およびオブジェクト表現のみを使用することで、私たちの方法は、さまざまなオブジェクトと軌道に対して良好なスケーラビリティを示します。
トレーニングには、全身の動きとオブジェクトの軌跡のペアのデータセットは必要ありません。
テスト時に必要なのは、オブジェクトのメッシュと、掴んで運ぶための望ましい軌道だけです。
私たちの方法の機能を実証するために、物体の軌跡を追跡し、目に見えない物体に一般化する際の最先端の成功率を示します。
コードとモデルは公開されます。

要約(オリジナル)

We present a method for controlling a simulated humanoid to grasp an object and move it to follow an object trajectory. Due to the challenges in controlling a humanoid with dexterous hands, prior methods often use a disembodied hand and only consider vertical lifts or short trajectories. This limited scope hampers their applicability for object manipulation required for animation and simulation. To close this gap, we learn a controller that can pick up a large number (>1200) of objects and carry them to follow randomly generated trajectories. Our key insight is to leverage a humanoid motion representation that provides human-like motor skills and significantly speeds up training. Using only simplistic reward, state, and object representations, our method shows favorable scalability on diverse object and trajectories. For training, we do not need dataset of paired full-body motion and object trajectories. At test time, we only require the object mesh and desired trajectories for grasping and transporting. To demonstrate the capabilities of our method, we show state-of-the-art success rates in following object trajectories and generalizing to unseen objects. Code and models will be released.

arxiv情報

著者 Zhengyi Luo,Jinkun Cao,Sammy Christen,Alexander Winkler,Kris Kitani,Weipeng Xu
発行日 2024-07-16 05:05:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GR, cs.RO パーマリンク