Learning Neural Implicit Representations with Surface Signal Parameterizations

要約

ニューラルの暗黙的な表面表現は、ポリゴン メッシュ、集計された点、ボクセルなどの明示的な 3D オブジェクト エンコーディングの一般的な代替手段として最近登場しました。
重要な作業により、これらの表現の幾何学的な忠実度が向上しましたが、最終的な外観にはあまり注意が払われていません。
従来の明示的なオブジェクト表現は、通常、3D 形状データを補助的なサーフェス マッピング イメージ データと結合します。たとえば、通常は 3D サーフェスの平面へのマッピング、つまりサーフェス パラメータ化が必要な法線マップのディフューズ カラー テクスチャや微細な幾何学的詳細などです。
;
一方、暗黙的な表現は、構成可能なサーフェスのパラメーター化がないため、テクスチャを簡単に作成できません。
このデジタル コンテンツ オーサリング方法論に着想を得て、外観データに適した基本的な表面パラメーター化を暗黙的にエンコードするニューラル ネットワーク アーキテクチャを設計します。
そのため、私たちのモデルは、アピアランス データを含む既存のメッシュベースのデジタル コンテンツと互換性があります。
コンパクトなネットワークを個々の 3D オブジェクトに過適合させる最近の研究に動機付けられて、ニューラルの暗黙的なサーフェスの機能を拡張して、テクスチャ マッピングのさまざまな一般的で重要なアプリケーションを有効にする、新しい重みでエンコードされたニューラルの暗黙的な表現を提示します。
私たちの方法は、合理的なベースラインと最先端の代替方法よりも優れています。

要約(オリジナル)

Neural implicit surface representations have recently emerged as popular alternative to explicit 3D object encodings, such as polygonal meshes, tabulated points, or voxels. While significant work has improved the geometric fidelity of these representations, much less attention is given to their final appearance. Traditional explicit object representations commonly couple the 3D shape data with auxiliary surface-mapped image data, such as diffuse color textures and fine-scale geometric details in normal maps that typically require a mapping of the 3D surface onto a plane, i.e., a surface parameterization; implicit representations, on the other hand, cannot be easily textured due to lack of configurable surface parameterization. Inspired by this digital content authoring methodology, we design a neural network architecture that implicitly encodes the underlying surface parameterization suitable for appearance data. As such, our model remains compatible with existing mesh-based digital content with appearance data. Motivated by recent work that overfits compact networks to individual 3D objects, we present a new weight-encoded neural implicit representation that extends the capability of neural implicit surfaces to enable various common and important applications of texture mapping. Our method outperforms reasonable baselines and state-of-the-art alternatives.

arxiv情報

著者 Yanran Guan,Andrei Chubarau,Ruby Rao,Derek Nowrouzezahrai
発行日 2022-11-01 15:10:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR パーマリンク