PolyGNN: Polyhedron-based Graph Neural Network for 3D Building Reconstruction from Point Clouds

要約

点群から 3D 建物を再構築するための多面体ベースのグラフ ニューラル ネットワークである PolyGNN を紹介します。
PolyGNN は、グラフ ノード分類を介して多面体分解によって得られたプリミティブをアセンブルすることを学習し、防水性があり、コンパクトで、セマンティックが弱い再構築を実現します。
ニューラル ネットワークで任意の形状の多面体を効果的に表現するために、多面体ごとのクエリとして代表点を選択し、効率的な占有推論を可能にする 3 つの異なるサンプリング戦略を提案します。
さらに、グラフ ノードの分類を強化するために多面体間の隣接性を組み込みます。
また、既存の都市構築モデルが、基礎となるインスタンスを抽象化したものであることもわかります。
この抽象化のギャップに対処し、提案された手法の公正な評価を提供するために、私たちは、多面体クラス ラベルの明確に定義されたグラウンド トゥルースを備えた 500,000 以上の建物をカバーする大規模な合成データセット上で手法を開発しました。
さらに、都市間および現実世界の点群上での伝達可能性の分析を実行します。
定性的結果と定量的結果の両方が、私たちの方法の有効性、特に大規模な再構成におけるその効率性を示しています。
私たちの作業のソース コードとデータは https://github.com/chenzhaiyu/polygnn で入手できます。

要約(オリジナル)

We present PolyGNN, a polyhedron-based graph neural network for 3D building reconstruction from point clouds. PolyGNN learns to assemble primitives obtained by polyhedral decomposition via graph node classification, achieving a watertight, compact, and weakly semantic reconstruction. To effectively represent arbitrary-shaped polyhedra in the neural network, we propose three different sampling strategies to select representative points as polyhedron-wise queries, enabling efficient occupancy inference. Furthermore, we incorporate the inter-polyhedron adjacency to enhance the classification of the graph nodes. We also observe that existing city-building models are abstractions of the underlying instances. To address this abstraction gap and provide a fair evaluation of the proposed method, we develop our method on a large-scale synthetic dataset covering 500k+ buildings with well-defined ground truths of polyhedral class labels. We further conduct a transferability analysis across cities and on real-world point clouds. Both qualitative and quantitative results demonstrate the effectiveness of our method, particularly its efficiency for large-scale reconstructions. The source code and data of our work are available at https://github.com/chenzhaiyu/polygnn.

arxiv情報

著者 Zhaiyu Chen,Yilei Shi,Liangliang Nan,Zhitong Xiong,Xiao Xiang Zhu
発行日 2023-07-17 16:52:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク