Simulation and Retargeting of Complex Multi-Character Interactions

要約

深層強化学習を使用して、物理的にシミュレートされたヒューマノイド キャラクターの複雑なマルチキャラクター インタラクションを再現する方法を紹介します。
私たちの手法は、参照データの複雑さとバランスを保ちながら、個々の動作だけでなく、キャラクター間のインタラクションも模倣するキャラクターの制御ポリシーを学習します。
私たちのアプローチでは、インタラクション ランドマークのペア間の距離を測定するインタラクション グラフに基づく新しい報酬公式を使用します。
この報酬により、参照モーション内のインタラクションの空間関係を維持しながら、キャラクターのモーションを効率的に模倣する制御ポリシーが促進されます。
ハイタッチの挨拶などの単純なインタラクションから、体操、サルサダンス、箱の運びや投げなどのより複雑なインタラクションまで、さまざまなアクティビティについてメソッドを評価します。
このアプローチは、既存のモーション キャプチャ データを「クリーンアップ」して、物理的に妥当なインタラクションを生成したり、元のデータのインタラクションを維持しながら、異なるサイズ、運動学、または形態を持つ新しいキャラクターにモーションのターゲットを変更したりするために使用できます。

要約(オリジナル)

We present a method for reproducing complex multi-character interactions for physically simulated humanoid characters using deep reinforcement learning. Our method learns control policies for characters that imitate not only individual motions, but also the interactions between characters, while maintaining balance and matching the complexity of reference data. Our approach uses a novel reward formulation based on an interaction graph that measures distances between pairs of interaction landmarks. This reward encourages control policies to efficiently imitate the character’s motion while preserving the spatial relationships of the interactions in the reference motion. We evaluate our method on a variety of activities, from simple interactions such as a high-five greeting to more complex interactions such as gymnastic exercises, Salsa dancing, and box carrying and throwing. This approach can be used to “clean-up” existing motion capture data to produce physically plausible interactions or to retarget motion to new characters with different sizes, kinematics or morphologies while maintaining the interactions in the original data.

arxiv情報

著者 Yunbo Zhang,Deepak Gopinath,Yuting Ye,Jessica Hodgins,Greg Turk,Jungdam Won
発行日 2023-05-31 17:13:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GR, cs.RO パーマリンク