DIG: Draping Implicit Garment over the Human Body

要約

ポーズをとった人体の上に衣服をドレープする既存のデータ駆動型の方法は、効果的であるにもかかわらず、任意のトポロジの衣服を処理できず、通常はエンドツーエンドで微分できません。
これらの制限に対処するために、暗黙的なサーフェスを使用して衣服を表し、多関節ボディ モデルの形状とポーズ パラメーターで調整されたスキニング フィールドを学習する、エンド ツー エンドの微分可能なパイプラインを提案します。
ボディウェアの相互侵入とアーティファクトを制限するために、トレーニングデータの解釈を意識した前処理戦略と、衣服をドレープする際の自己交差にペナルティを課す新しいトレーニング損失を提案します。
最先端の方法に関して、私たちの方法が衣服の再構築と変形に対してより正確な結果をもたらすことを実証します。
さらに、私たちの方法は、そのエンドツーエンドの微分可能性のおかげで、以前の研究ではできなかった、画像観察から身体と衣服のパラメーターを一緒に回復できることを示しています。

要約(オリジナル)

Existing data-driven methods for draping garments over posed human bodies, despite being effective, cannot handle garments of arbitrary topology and are typically not end-to-end differentiable. To address these limitations, we propose an end-to-end differentiable pipeline that represents garments using implicit surfaces and learns a skinning field conditioned on shape and pose parameters of an articulated body model. To limit body-garment interpenetrations and artifacts, we propose an interpretation-aware pre-processing strategy of training data and a novel training loss that penalizes self-intersections while draping garments. We demonstrate that our method yields more accurate results for garment reconstruction and deformation with respect to state-of-the-art methods. Furthermore, we show that our method, thanks to its end-to-end differentiability, allows to recover body and garments parameters jointly from image observations, something that previous work could not do.

arxiv情報

著者 Ren Li,Benoît Guillard,Edoardo Remelli,Pascal Fua
発行日 2022-09-22 08:13:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.GR, cs.LG パーマリンク