Implicit Neural Representation for Physics-driven Actuated Soft Bodies

要約

アクティブなソフト ボディは、変形を誘発する内部作動メカニズムを通じてその形状に影響を与えることができます。
最近の研究と同様に、この論文では、微分可能で準静的な物理ベースのシミュレーション レイヤーを利用して、ニューラル ネットワークによってパラメーター化された作動信号を最適化します。
私たちの主な貢献は、マテリアル空間の空間点から作動値への連続マッピングを可能にする関数を定義することにより、アクティブなソフト ボディを制御するための一般的かつ暗黙的な定式化です。
この特性により、信号の主周波数を捕捉できるため、この方法が離散化に依存せず、広く適用できるようになります。
私たちは、顔アニメーションの特定のケースの下顎の運動学に暗黙的モデルを拡張し、高品質のキャプチャ システムでキャプチャされた顔の表情を確実に再現できることを示します。
この方法をボリュームソフトボディ、人間のポーズ、表情に適用し、潜在空間の簡単な制御やテスト時の解像度の不変性など、アーティストに優しい特性を実証します。

要約(オリジナル)

Active soft bodies can affect their shape through an internal actuation mechanism that induces a deformation. Similar to recent work, this paper utilizes a differentiable, quasi-static, and physics-based simulation layer to optimize for actuation signals parameterized by neural networks. Our key contribution is a general and implicit formulation to control active soft bodies by defining a function that enables a continuous mapping from a spatial point in the material space to the actuation value. This property allows us to capture the signal’s dominant frequencies, making the method discretization agnostic and widely applicable. We extend our implicit model to mandible kinematics for the particular case of facial animation and show that we can reliably reproduce facial expressions captured with high-quality capture systems. We apply the method to volumetric soft bodies, human poses, and facial expressions, demonstrating artist-friendly properties, such as simple control over the latent space and resolution invariance at test time.

arxiv情報

著者 Lingchen Yang,Byungsoo Kim,Gaspard Zoss,Baran Gözcü,Markus Gross,Barbara Solenthaler
発行日 2024-01-26 13:42:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR パーマリンク