D$^2$CSG: Unsupervised Learning of Compact CSG Trees with Dual Complements and Dropouts

要約

我々は、3D CAD 形状のコンパクト構成立体幾何学 (CSG) 表現の教師なし学習のための、ドロップアウトを備えた 2 つの二重かつ相補的なネットワーク ブランチで構成されるニューラル モデル D$^2$CSG を紹介します。
私たちのネットワークは、2 次プリミティブの固定順序アセンブリによって 3D 形状を再構成するようにトレーニングされており、両方のブランチがプリミティブの交差または逆元の和集合を生成します。
D$^2$CSG と以前のすべてのニューラル CSG モデルの主な違いは、カバー ブランチによってモデル化された全体の形状から差し引かれる、潜在的に複雑な形状の補体を組み立てるための専用の残差ブランチがあることです。
形状の補完により、ネットワークが一般的であることが証明されますが、重みドロップアウトにより、冗長なプリミティブが削除されるため、CSG ツリーのコンパクトさがさらに向上します。
我々は、D$^2$CSGが、特に複雑で高属数のCAD形状に対して、既存のすべての代替案よりも優れた品質とより自然なプリミティブを備えたコンパクトなCSG再構成を生成することを定量的および定性的に実証します。

要約(オリジナル)

We present D$^2$CSG, a neural model composed of two dual and complementary network branches, with dropouts, for unsupervised learning of compact constructive solid geometry (CSG) representations of 3D CAD shapes. Our network is trained to reconstruct a 3D shape by a fixed-order assembly of quadric primitives, with both branches producing a union of primitive intersections or inverses. A key difference between D$^2$CSG and all prior neural CSG models is its dedicated residual branch to assemble the potentially complex shape complement, which is subtracted from an overall shape modeled by the cover branch. With the shape complements, our network is provably general, while the weight dropout further improves compactness of the CSG tree by removing redundant primitives. We demonstrate both quantitatively and qualitatively that D$^2$CSG produces compact CSG reconstructions with superior quality and more natural primitives than all existing alternatives, especially over complex and high-genus CAD shapes.

arxiv情報

著者 Fenggen Yu,Qimin Chen,Maham Tanveer,Ali Mahdavi Amiri,Hao Zhang
発行日 2023-06-01 17:32:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.GR パーマリンク