PoissonNet: Resolution-Agnostic 3D Shape Reconstruction using Fourier Neural Operators

要約

我々は、点から3D形状を復元するという課題に取り組む、形状再構成のためのアーキテクチャであるPoissonNetを紹介する。従来のディープニューラルネットワークは、高解像度での計算複雑性のため、一般的な3D形状の離散化技術で課題に直面する。これを克服するために、我々はフーリエニューラル演算子(FNO)を活用してポアソン方程式を解き、配向した点群計測からメッシュを再構成する。PoissonNetには主に2つの利点がある。第一に、FNOの解像度に依存しない性質により、高解像度評価で同等の性能を達成しながら、低解像度データでの効率的な学習が可能である。この特徴により、一発超解像が可能となる。第二に、本手法は微分可能でありながら、再構成品質において既存のアプローチを凌駕する。全体として、我々の提案手法は、形状再構成における古典的なディープニューラルネットワークの限界を改善するだけでなく、再構成品質、実行時間、解像度の柔軟性の点で、優れた結果を達成する。さらに、フーリエニューロンオペレータを利用した、分布データを持つポアソン方程式の解演算子に対する普遍的な近似定理を示すことで、ポアソン曲面再構成問題が極限ケースにおいてよく解かれていることを示し、数値結果の理論的基礎を提供する。実験を再現するためのコードはこちらで公開されています:\https://github.com/arsenal9971/PoissonNet}。

要約(オリジナル)

We introduce PoissonNet, an architecture for shape reconstruction that addresses the challenge of recovering 3D shapes from points. Traditional deep neural networks face challenges with common 3D shape discretization techniques due to their computational complexity at higher resolutions. To overcome this, we leverage Fourier Neural Operators (FNOs) to solve the Poisson equation and reconstruct a mesh from oriented point cloud measurements. PoissonNet exhibits two main advantages. First, it enables efficient training on low-resolution data while achieving comparable performance at high-resolution evaluation, thanks to the resolution-agnostic nature of FNOs. This feature allows for one-shot super-resolution. Second, our method surpasses existing approaches in reconstruction quality while being differentiable. Overall, our proposed method not only improves upon the limitations of classical deep neural networks in shape reconstruction but also achieves superior results in terms of reconstruction quality, running time, and resolution flexibility. Furthermore, we demonstrate that the Poisson surface reconstruction problem is well-posed in the limit case by showing a universal approximation theorem for the solution operator of the Poisson equation with distributional data utilizing the Fourier Neuronal Operator, which provides a theoretical foundation for our numerical results. The code to reproduce the experiments is available on: \url{https://github.com/arsenal9971/PoissonNet}.

arxiv情報

著者 Hector Andrade-Loarca,Aras Bacho,Julius Hege,Gitta Kutyniok
発行日 2023-08-03 13:56:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, math.AP パーマリンク