要約
3D 衣服アニメーションで現実的なダイナミクスを模倣することは、多層衣服の複雑な性質と関係するさまざまな外力のため、困難な作業です。
既存のアプローチは主に人体のみによって駆動される単層の衣服に焦点を当てており、一般的なシナリオを処理するのに苦労しています。
この論文では、マイクロ物理システムにおける粒子単位の相互作用として衣服レベルのアニメーションをモデル化する、LayersNet と呼ばれる新しいデータ駆動型の方法を提案します。
衣服を 2 レベルの構造階層内のパッチレベルのパーティクルとして表現することで、シミュレーションの効率を向上させます。
さらに、物理システムの回転不変性と加算性を活用して、外部の力をより適切にモデル化する新しい回転等価変換を導入します。
私たちのアプローチの有効性を検証し、実験環境と現実世界のシナリオの間のギャップを埋めるために、私たちは、両方の人体によって駆動される多層衣類の 4,900 の異なる組み合わせのダイナミクスの 700,000 フレームを含む、新しい挑戦的なデータセット D-LAYERS を導入します。
ランダムにサンプリングされた風。
私たちの実験は、LayersNet が量的および質的に優れたパフォーマンスを達成することを示しています。
データセットとコードは https://mmlab-ntu.github.io/project/layersnet/index.html で公開する予定です。
要約(オリジナル)
Mimicking realistic dynamics in 3D garment animations is a challenging task due to the complex nature of multi-layered garments and the variety of outer forces involved. Existing approaches mostly focus on single-layered garments driven by only human bodies and struggle to handle general scenarios. In this paper, we propose a novel data-driven method, called LayersNet, to model garment-level animations as particle-wise interactions in a micro physics system. We improve simulation efficiency by representing garments as patch-level particles in a two-level structural hierarchy. Moreover, we introduce a novel Rotation Equivalent Transformation that leverages the rotation invariance and additivity of physics systems to better model outer forces. To verify the effectiveness of our approach and bridge the gap between experimental environments and real-world scenarios, we introduce a new challenging dataset, D-LAYERS, containing 700K frames of dynamics of 4,900 different combinations of multi-layered garments driven by both human bodies and randomly sampled wind. Our experiments show that LayersNet achieves superior performance both quantitatively and qualitatively. We will make the dataset and code publicly available at https://mmlab-ntu.github.io/project/layersnet/index.html .
arxiv情報
著者 | Yidi Shao,Chen Change Loy,Bo Dai |
発行日 | 2023-05-17 17:53:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google