Learning Physics-Based Full-Body Human Reaching and Grasping from Brief Walking References

要約

MOCAPデータに基づく既存のモーション生成方法は、データの品質とカバレッジによって制限されることがよくあります。
この作業では、短いウォーキングMOCAPデータのみを使用して、多様で物理的に実現可能なフルボディの人間の到達と把握の動きを生成するフレームワークを提案します。
ウォーキングデータがタスク全体で転送可能な貴重な動きのパターンをキャプチャするという観察に基づいて、一方で、高度な運動学的方法は多様な把握ポーズを生成し、タスク固有のガイダンスとして役立つ動きに補間することができます。
当社のアプローチには、生成された動きの有用性を最大化するためのアクティブなデータ生成戦略が組み込まれており、合成モーションの成功率と自然性の両方を高めるために、歩行データから自然な動きのパターンを伝達するローカル機能アラインメントメカニズムが組み込まれています。
自然な歩行の忠実度と安定性を、タスク固有の生成データの柔軟性と一般化可能性と組み合わせることにより、この方法は、多様なシーンと目に見えないオブジェクトで強力なパフォーマンスと堅牢な適応性を示します。

要約(オリジナル)

Existing motion generation methods based on mocap data are often limited by data quality and coverage. In this work, we propose a framework that generates diverse, physically feasible full-body human reaching and grasping motions using only brief walking mocap data. Base on the observation that walking data captures valuable movement patterns transferable across tasks and, on the other hand, the advanced kinematic methods can generate diverse grasping poses, which can then be interpolated into motions to serve as task-specific guidance. Our approach incorporates an active data generation strategy to maximize the utility of the generated motions, along with a local feature alignment mechanism that transfers natural movement patterns from walking data to enhance both the success rate and naturalness of the synthesized motions. By combining the fidelity and stability of natural walking with the flexibility and generalizability of task-specific generated data, our method demonstrates strong performance and robust adaptability in diverse scenes and with unseen objects.

arxiv情報

著者 Yitang Li,Mingxian Lin,Zhuo Lin,Yipeng Deng,Yue Cao,Li Yi
発行日 2025-03-10 15:56:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク