PDP: Physics-Based Character Animation via Diffusion Policy

要約

環境と物理的に相互作用できる、多様でリアルな人間の動きを生成することは、キャラクター アニメーションにおける依然として挑戦的な研究分野です。
一方、ロボット工学コミュニティによって提案された拡散ベースの手法は、非常に多様でマルチモーダルなスキルを取得できることが実証されています。
ただし、拡散ポリシーを単純にトレーニングすると、複合エラーが急速に蓄積するため、二足歩行などの高頻度で作動が不十分な制御タスクの動作が不安定になり、エージェントが最適なトレーニング軌道から遠ざかってしまうことがよくあります。
重要なアイデアは、最適な軌道を提供するためだけでなく、次善の状態での修正アクションを提供するために RL ポリシーを使用することで、環境刺激、モデル エラー、またはシミュレーションの数値エラーによって引き起こされるエラーを修正する機会をポリシーに与えることにあります。
私たちの手法である拡散ポリシーによる物理ベースのキャラクター アニメーション (PDP) は、強化学習 (RL) と動作クローン作成 (BC) を組み合わせて、物理ベースのキャラクター アニメーションの堅牢な普及ポリシーを作成します。
摂動回復、ユニバーサル モーション トラッキング、物理ベースのテキストからモーションへの合成に関する PDP を実証します。

要約(オリジナル)

Generating diverse and realistic human motion that can physically interact with an environment remains a challenging research area in character animation. Meanwhile, diffusion-based methods, as proposed by the robotics community, have demonstrated the ability to capture highly diverse and multi-modal skills. However, naively training a diffusion policy often results in unstable motions for high-frequency, under-actuated control tasks like bipedal locomotion due to rapidly accumulating compounding errors, pushing the agent away from optimal training trajectories. The key idea lies in using RL policies not just for providing optimal trajectories but for providing corrective actions in sub-optimal states, giving the policy a chance to correct for errors caused by environmental stimulus, model errors, or numerical errors in simulation. Our method, Physics-Based Character Animation via Diffusion Policy (PDP), combines reinforcement learning (RL) and behavior cloning (BC) to create a robust diffusion policy for physics-based character animation. We demonstrate PDP on perturbation recovery, universal motion tracking, and physics-based text-to-motion synthesis.

arxiv情報

著者 Takara E. Truong,Michael Piseno,Zhaoming Xie,C. Karen Liu
発行日 2024-12-04 21:46:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GR, cs.RO パーマリンク