PMP: Learning to Physically Interact with Environments using Part-wise Motion Priors

要約

タイトル:PMP: 物理的相互作用を部分別モーション事前知識を用いて学習する

要約:
– 論文は、多数の部分別モーション事前知識 (PMP) を組み合わせてキャラクターアニメーションを作成する方法について提案している。
– これまでの研究では、リファレンスデータに基づいて現実的な剛体運動を作成することができたが、アイテムとの相互作用が多く含まれる状況では、利用可能なサンプル数の限界によって運動の範囲が大幅に制限される問題があった。
– PMPのおかげで、既存のデータを異なる組み合わせで使用して、複数の部分スキルをアニメーション化することができる。
– Pipelineでは、広範な部分別事前知識でエージェントをトレーニングできるため、各体部はモーションキャプチャから運動スキルを学ぶことができる。
– エージェントが物体のトラジェクトリの参照運動シーケンスになくても、新しい物理相互作用スキルを学ぶことができるため、全身を対象とするエージェントが新しい物理相互作用スキルを学ぶことができる。

要約(オリジナル)

We present a method to animate a character incorporating multiple part-wise motion priors (PMP). While previous works allow creating realistic articulated motions from reference data, the range of motion is largely limited by the available samples. Especially for the interaction-rich scenarios, it is impractical to attempt acquiring every possible interacting motion, as the combination of physical parameters increases exponentially. The proposed PMP allows us to assemble multiple part skills to animate a character, creating a diverse set of motions with different combinations of existing data. In our pipeline, we can train an agent with a wide range of part-wise priors. Therefore, each body part can obtain a kinematic insight of the style from the motion captures, or at the same time extract dynamics-related information from the additional part-specific simulation. For example, we can first train a general interaction skill, e.g. grasping, only for the dexterous part, and then combine the expert trajectories from the pre-trained agent with the kinematic priors of other limbs. Eventually, our whole-body agent learns a novel physical interaction skill even with the absence of the object trajectories in the reference motion sequence.

arxiv情報

著者 Jinseok Bae,Jungdam Won,Donggeun Lim,Cheol-Hui Min,Young Min Kim
発行日 2023-05-05 02:27:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.GR, cs.LG パーマリンク