Towards Loose-Fitting Garment Animation via Generative Model of Deformation Decomposition

要約

衣服アニメーションのための既存のデータ駆動型手法は、通常リニア スキニングによって駆動されますが、タイトな衣服には効果的ですが、複雑な変形を伴う緩い衣服にはうまく対応できません。
これらの制限に対処するために、リニア スキニングを直接使用せずに、緩い衣服の変形を効率的にシミュレートする、変形分解に基づく衣服生成モデルを開発します。
具体的には、提案された生成モデルを使用して衣服生成空間を学習します。そこでは、デコード段階で潜在表現を、ポーズを付けられていない変形された衣服と動的オフセットに分離します。
明示的な衣服変形分解により、生成モデルは正規の衣服形状に対して複雑なポーズ駆動の変形を生成できます。
さらに、体の動きと衣服の以前の状態を潜在空間に転送して、動的な結果を再生成する方法を学びます。
さらに、高周波のしわを学習するために、敵対的トレーニング設定に詳細強化モジュールを導入します。
私たちは、広範な実験を通じて私たちの方法が最先端のデータ駆動型の代替方法よりも優れていることを実証し、結果の定性的および定量的な分析を示します。

要約(オリジナル)

Existing data-driven methods for garment animation, usually driven by linear skinning, although effective on tight garments, do not handle loose-fitting garments with complex deformations well. To address these limitations, we develop a garment generative model based on deformation decomposition to efficiently simulate loose garment deformation without directly using linear skinning. Specifically, we learn a garment generative space with the proposed generative model, where we decouple the latent representation into unposed deformed garments and dynamic offsets during the decoding stage. With explicit garment deformations decomposition, our generative model is able to generate complex pose-driven deformations on canonical garment shapes. Furthermore, we learn to transfer the body motions and previous state of the garment to the latent space to regenerate dynamic results. In addition, we introduce a detail enhancement module in an adversarial training setup to learn high-frequency wrinkles. We demonstrate our method outperforms state-of-the-art data-driven alternatives through extensive experiments and show qualitative and quantitative analysis of results.

arxiv情報

著者 Yifu Liu,Xiaoxia Li,Zhiling Luo,Wei Zhou
発行日 2023-12-22 11:26:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク