ND-SDF: Learning Normal Deflection Fields for High-Fidelity Indoor Reconstruction

要約

ボリューム レンダリングによるニューラル 暗黙的再構成は、密な 3D サーフェスの復元に有効であることが実証されています。
ただし、細心の注意を払ってジオメトリを復元し、異なる特性を持つ領域全体で滑らかさを同時に維持することは簡単ではありません。
この問題に対処するために、以前の方法では通常、幾何学的事前分布が使用されていましたが、これは多くの場合、以前のモデルのパフォーマンスによって制約を受けました。
この論文では、シーン法線と以前の法線の間の角度偏差を表す法線 Ddeflection フィールドを学習する ND-SDF を提案します。
すべてのサンプルに幾何学的事前分布を均一に適用して精度に大きな偏りをもたらす以前の方法とは異なり、私たちが提案する法線偏向場は、サンプルの特定の特性に基づいてサンプルの利用を動的に学習して適応させ、それによってモデルの精度と有効性の両方を向上させます。
私たちの方法は、壁や床などの滑らかでテクスチャの弱い領域を取得するだけでなく、複雑な構造の幾何学的詳細も保存します。
さらに、偏向角に基づく新しい光線サンプリング戦略を導入して、偏りのないレンダリング プロセスを促進します。これにより、特に薄い構造上の複雑な表面の品質と精度が大幅に向上します。
さまざまな困難なデータセットに対する一貫した改善は、私たちの方法の優位性を示しています。

要約(オリジナル)

Neural implicit reconstruction via volume rendering has demonstrated its effectiveness in recovering dense 3D surfaces. However, it is non-trivial to simultaneously recover meticulous geometry and preserve smoothness across regions with differing characteristics. To address this issue, previous methods typically employ geometric priors, which are often constrained by the performance of the prior models. In this paper, we propose ND-SDF, which learns a Normal Ddeflection field to represent the angular deviation between the scene normal and the prior normal. Unlike previous methods that uniformly apply geometric priors on all samples, introducing significant bias in accuracy, our proposed normal deflection field dynamically learns and adapts the utilization of samples based on their specific characteristics, thereby improving both the accuracy and effectiveness of the model. Our method not only obtains smooth weakly textured regions such as walls and floors but also preserves the geometric details of complex structures. In addition, we introduce a novel ray sampling strategy based on the deflection angle to facilitate the unbiased rendering process, which significantly improves the quality and accuracy of intricate surfaces, especially on thin structures. Consistent improvements on various challenging datasets demonstrate the superiority of our method.

arxiv情報

著者 Ziyu Tang,Weicai Ye,Yifan Wang,Di Huang,Hujun Bao,Tong He,Guofeng Zhang
発行日 2024-08-22 17:59:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク