要約
タイトル: タスクコントロールを伴うコンポジットモーションの学習
要約:
– 物理的にシミュレーショントキャラクター用の複合的でタスク駆動型のモーションコントロールのための深層学習法を提案する。
– 既存の強化学習を用いた全身モーションの模倣に基づくデータ駆動型の手法とは異なり、本研究では単一のGANライクのセットアップで複数の参照モーションから同時に直接特定の身体部位の分離モーションを学習し、多数のディスクリミネータを活用する。そのため、複合参照モーションを学習するために手動で何かを行う必要はない。制御方針は自動的に複数の合成モーションをどのように組み合わせるかを探索する。
– 我々は加速学習方法を提案し、複数のタスク特有の報酬を考慮した単一の多目的コントロールポリシーを訓練する。これを実現するために、我々は複数のソースから離散的なモーション学習を適応的にバランスする新しい多目的学習フレームワークを提案している。
– 加えて、複合モーションは通常、より単純な行動の補強であるため、我々は、サンプル効率的な方法を導入し、インクリメンタル的な方法で複合制御ポリシーのトレーニングを行う。すなわち、事前にトレーニングされたポリシーをメタポリシーとして再利用し、新しい複合タスクに合わせて変更されたメタポリシーをトレーニングする。
– 多目的タスクと複合モーションの模倣の両方を含む多様なチャレンジングな多目的タスクに対して、我々のアプローチの適用可能性を示す。
要約(オリジナル)
We present a deep learning method for composite and task-driven motion control for physically simulated characters. In contrast to existing data-driven approaches using reinforcement learning that imitate full-body motions, we learn decoupled motions for specific body parts from multiple reference motions simultaneously and directly by leveraging the use of multiple discriminators in a GAN-like setup. In this process, there is no need of any manual work to produce composite reference motions for learning. Instead, the control policy explores by itself how the composite motions can be combined automatically. We further account for multiple task-specific rewards and train a single, multi-objective control policy. To this end, we propose a novel framework for multi-objective learning that adaptively balances the learning of disparate motions from multiple sources and multiple goal-directed control objectives. In addition, as composite motions are typically augmentations of simpler behaviors, we introduce a sample-efficient method for training composite control policies in an incremental manner, where we reuse a pre-trained policy as the meta policy and train a cooperative policy that adapts the meta one for new composite tasks. We show the applicability of our approach on a variety of challenging multi-objective tasks involving both composite motion imitation and multiple goal-directed control.
arxiv情報
著者 | Pei Xu,Xiumin Shang,Victor Zordan,Ioannis Karamouzas |
発行日 | 2023-05-05 05:02:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI