MultiAct: Long-Term 3D Human Motion Generation from Multiple Action Labels

要約

複数のアクション ラベルから長期的な 3D 人間の動きを生成する問題に取り組みます。
アクションおよびモーション条件付きメソッドなど、以前の 2 つの主要なアプローチには、この問題を解決するための制限があります。
アクション条件付きメソッドは、1 つのアクションから一連のモーションを生成します。
したがって、複数のアクションとアクション間の遷移で構成される長時間のモーションを生成することはできません。
一方、モーション条件付きメソッドは、初期モーションから将来のモーションを生成します。
生成された未来のモーションは過去のみに依存するため、ユーザーの目的のアクションによって制御することはできません。
複数のアクション ラベルから長期的な 3D 人間の動きを生成する最初のフレームワークである MultiAct を紹介します。
MultiAct は、統一されたリカレント生成システムを使用して、アクションとモーションの両方の条件を考慮します。
前のモーションとアクション ラベルを繰り返し取得します。
次に、スムーズな遷移と指定されたアクションのモーションを生成します。
その結果、MultiAct は、与えられた一連の複数のアクション ラベルによって制御される現実的な長時間のモーションを生成します。
コードが公開されます。

要約(オリジナル)

We tackle the problem of generating long-term 3D human motion from multiple action labels. Two main previous approaches, such as action- and motion-conditioned methods, have limitations to solve this problem. The action-conditioned methods generate a sequence of motion from a single action. Hence, it cannot generate long-term motions composed of multiple actions and transitions between actions. Meanwhile, the motion-conditioned methods generate future motions from initial motion. The generated future motions only depend on the past, so they are not controllable by the user’s desired actions. We present MultiAct, the first framework to generate long-term 3D human motion from multiple action labels. MultiAct takes account of both action and motion conditions with a unified recurrent generation system. It repetitively takes the previous motion and action label; then, it generates a smooth transition and the motion of the given action. As a result, MultiAct produces realistic long-term motion controlled by the given sequence of multiple action labels. The code will be released.

arxiv情報

著者 Taeryung Lee,Gyeongsik Moon,Kyoung Mu Lee
発行日 2022-12-12 13:52:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク