要約
特に多様なガイダンスシグナルを使用した長老のコントロールでは、自然および身体的にもっともらしいキャラクターの動きを生成することは依然として困難です。
以前の作業では、高レベルの拡散ベースのモーションプランナーと低レベルの物理コントローラーを組み合わせていますが、これらのシステムはモーション品質を低下させ、タスク固有の微調整を必要とするドメインギャップに悩まされています。
この問題に取り組むために、モーション計画と制御を単一のモデルに統合する拡散ベースの動作クローニングフレームワークであるUniphysを紹介します。
Uniphysは、テキスト、軌跡、目標などのマルチモーダル入力に条件付けられた柔軟で表現力のあるキャラクターモーションを可能にします。
長いシーケンスにわたって蓄積された予測エラーに対処するために、Uniphysは拡散強制パラダイムで訓練され、騒々しい動きの履歴を除去し、物理シミュレーターによって導入された不一致を処理します。
この設計により、Uniphysは物理的にもっともらしい長老の動きを堅牢に生成することができます。
ガイド付きサンプリングを通じて、Uniphysは、タスク固有の微調整を必要とせずに、目に見えないものを含む幅広い制御信号に一般化します。
実験では、ユニピが動きの自然性、一般化、および多様な制御タスク全体の堅牢性における以前の方法よりも優れていることが示されています。
要約(オリジナル)
Generating natural and physically plausible character motion remains challenging, particularly for long-horizon control with diverse guidance signals. While prior work combines high-level diffusion-based motion planners with low-level physics controllers, these systems suffer from domain gaps that degrade motion quality and require task-specific fine-tuning. To tackle this problem, we introduce UniPhys, a diffusion-based behavior cloning framework that unifies motion planning and control into a single model. UniPhys enables flexible, expressive character motion conditioned on multi-modal inputs such as text, trajectories, and goals. To address accumulated prediction errors over long sequences, UniPhys is trained with the Diffusion Forcing paradigm, learning to denoise noisy motion histories and handle discrepancies introduced by the physics simulator. This design allows UniPhys to robustly generate physically plausible, long-horizon motions. Through guided sampling, UniPhys generalizes to a wide range of control signals, including unseen ones, without requiring task-specific fine-tuning. Experiments show that UniPhys outperforms prior methods in motion naturalness, generalization, and robustness across diverse control tasks.
arxiv情報
著者 | Yan Wu,Korrawe Karunratanakul,Zhengyi Luo,Siyu Tang |
発行日 | 2025-04-17 00:04:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google