要約
複数のビューから明示的に定義された連続面を学習する効率的な表面再構成法であるExplicit Neural Surfaces (ENS)を紹介する。連続的な入力面を目標形状に漸進的に変換するために、一連のニューラル変形場を使用する。メッシュを離散的な表面プロキシとしてサンプリングし、効率的な微分可能ラスタライズによって変形場を学習し、メッシュに依存しない滑らかな表面表現を達成する。また、ラプラス・ベルトラミ固有関数を、標準的な外在的フーリエ特徴量と並ぶ内在的位置符号化として用いることで、表面の微細な情報を捉えることができる。ENSは、1~2桁の速度で学習し、暗黙的な表現と比較して、より高品質なメッシュを抽出することができます。最後に、本アプローチを1つのモデルにおけるオブジェクトの集合の学習に適用し、異なる形状、その表面詳細、およびテクスチャ間の分離された補間を実現します。
要約(オリジナル)
We introduce Explicit Neural Surfaces (ENS), an efficient surface reconstruction method that learns an explicitly defined continuous surface from multiple views. We use a series of neural deformation fields to progressively transform a continuous input surface to a target shape. By sampling meshes as discrete surface proxies, we train the deformation fields through efficient differentiable rasterization, and attain a mesh-independent and smooth surface representation. By using Laplace-Beltrami eigenfunctions as an intrinsic positional encoding alongside standard extrinsic Fourier features, our approach can capture fine surface details. ENS trains 1 to 2 orders of magnitude faster and can extract meshes of higher quality compared to implicit representations, whilst maintaining competitive surface reconstruction performance and real-time capabilities. Finally, we apply our approach to learn a collection of objects in a single model, and achieve disentangled interpolations between different shapes, their surface details, and textures.
arxiv情報
| 著者 | Thomas Walker,Octave Mariotti,Amir Vaxman,Hakan Bilen |
| 発行日 | 2023-06-05 15:24:33+00:00 |
| arxivサイト | arxiv_id(pdf) |