Optimizing 3D Geometry Reconstruction from Implicit Neural Representations

要約

暗黙的なニューラル表現は、3D ジオメトリを学習するための強力なツールとして登場し、メッシュベースの手法などの従来の表現に比べて比類のない利点を提供します。
一般的なタイプの INR は、学習された連続関数のゼロレベルのセットとして形状の境界を暗黙的にエンコードし、低次元の潜在空間からその符号付き距離関数で表されるすべての可能な形状の空間へのマッピングを学習します。
ただし、ほとんどの INR は、正確な幾何学的描写に不可欠な高周波の詳細を保持するのに苦労しており、計算コストが高くなります。
これらの制限に対処するために、計算コストを削減し、詳細のキャプチャを強化する新しいアプローチを提案します。
私たちの方法は、周期的活性化関数、位置エンコーディング、法線をニューラル ネットワーク アーキテクチャに統合します。
この統合により、従来の表現では不十分なことが多かった複雑な詳細や鮮明な特徴を維持しながら、3D 形状の空間全体を学習するモデルの能力が大幅に強化されます。

要約(オリジナル)

Implicit neural representations have emerged as a powerful tool in learning 3D geometry, offering unparalleled advantages over conventional representations like mesh-based methods. A common type of INR implicitly encodes a shape’s boundary as the zero-level set of the learned continuous function and learns a mapping from a low-dimensional latent space to the space of all possible shapes represented by its signed distance function. However, most INRs struggle to retain high-frequency details, which are crucial for accurate geometric depiction, and they are computationally expensive. To address these limitations, we present a novel approach that both reduces computational expenses and enhances the capture of fine details. Our method integrates periodic activation functions, positional encodings, and normals into the neural network architecture. This integration significantly enhances the model’s ability to learn the entire space of 3D shapes while preserving intricate details and sharp features, areas where conventional representations often fall short.

arxiv情報

著者 Shen Fan,Przemyslaw Musialski
発行日 2024-10-16 16:36:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR, cs.LG パーマリンク