要約
メッシュはビジュアル コンピューティングやシミュレーションで広く使われていますが、既存の機械学習技術のほとんどはメッシュを間接的にのみ表します。
スカラー フィールドのレベル セットやテンプレートの変形として、または局所構造を欠いた無秩序な三角形のスープとして。
この研究では、ニューラル ネットワークの出力として、複雑な接続性を持つ多様な多角形メッシュを直接生成するスキームを提示します。
私たちの主な革新は、各メッシュ頂点で連続的な潜在接続空間を定義することであり、これは離散メッシュを意味します。
特に、頂点埋め込みは、ハーフエッジ メッシュ表現で周期的な隣接関係を生成します。これにより、エッジ多様体性が保証され、一般的なポリゴン メッシュを表現できるようになります。
この表現は、接続性やトポロジーの制限を受けることなく、機械学習や確率的最適化に適しています。
まずこの表現の基本的なプロパティを調査し、次にそれを使用して大規模なデータセットからのメッシュの分布を適合させます。
結果として得られるモデルは、データセット母集団から学習したテッセレーション構造を備えた、簡潔な詳細と高品質のメッシュ要素を備えた多様なメッシュを生成します。
アプリケーションでは、このアプローチにより生成モデルから高品質の出力が得られるだけでなく、メッシュ修復などの困難なジオメトリ処理タスクを直接学習することも可能になります。
要約(オリジナル)
Meshes are ubiquitous in visual computing and simulation, yet most existing machine learning techniques represent meshes only indirectly, e.g. as the level set of a scalar field or deformation of a template, or as a disordered triangle soup lacking local structure. This work presents a scheme to directly generate manifold, polygonal meshes of complex connectivity as the output of a neural network. Our key innovation is to define a continuous latent connectivity space at each mesh vertex, which implies the discrete mesh. In particular, our vertex embeddings generate cyclic neighbor relationships in a halfedge mesh representation, which gives a guarantee of edge-manifoldness and the ability to represent general polygonal meshes. This representation is well-suited to machine learning and stochastic optimization, without restriction on connectivity or topology. We first explore the basic properties of this representation, then use it to fit distributions of meshes from large datasets. The resulting models generate diverse meshes with tessellation structure learned from the dataset population, with concise details and high-quality mesh elements. In applications, this approach not only yields high-quality outputs from generative models, but also enables directly learning challenging geometry processing tasks such as mesh repair.
arxiv情報
著者 | Tianchang Shen,Zhaoshuo Li,Marc Law,Matan Atzmon,Sanja Fidler,James Lucas,Jun Gao,Nicholas Sharp |
発行日 | 2024-09-30 17:59:03+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google