3DShape2VecSet: A 3D Shape Representation for Neural Fields and Generative Diffusion Models

要約

タイトル:3DShape2VecSet:ニューラルフィールドとジェネレーティブ拡散モデルのための3D形状表現
要約:
-3DShape2VecSetは、生成拡散モデルのために設計された、ニューラルフィールドのための新しい形状表現です。
-3DShape2VecSetは、表面モデルまたは点群として与えられる3D形状をエンコードし、ニューラルフィールドとして表現することができます。
-ニューラルフィールドの概念は、以前に、グローバル潜在ベクトル、潜在ベクトルの正規格子、または不規則な格子と組み合わされていました。
-3DShape2VecSetは、ベクトルセットの上にニューラルフィールドをエンコードする新しい表現を提供します。
-ラジアルベース関数表現やクロスアテンションおよびセルフアテンション関数など、複数のコンセプトから引用し、学習可能な表現を設計しています。
-3D形状エンコードおよび3D形状ジェネレーティブモデリングタスクにおける性能の向上が示されています。
-条件付き生成、カテゴリ条件付き生成、テキスト条件付き生成、ポイントクラウド補完、および画像条件付き生成など、幅広いジェネレーティブアプリケーションがデモンストレーションされています。

要約(オリジナル)

We introduce 3DShape2VecSet, a novel shape representation for neural fields designed for generative diffusion models. Our shape representation can encode 3D shapes given as surface models or point clouds, and represents them as neural fields. The concept of neural fields has previously been combined with a global latent vector, a regular grid of latent vectors, or an irregular grid of latent vectors. Our new representation encodes neural fields on top of a set of vectors. We draw from multiple concepts, such as the radial basis function representation and the cross attention and self-attention function, to design a learnable representation that is especially suitable for processing with transformers. Our results show improved performance in 3D shape encoding and 3D shape generative modeling tasks. We demonstrate a wide variety of generative applications: unconditioned generation, category-conditioned generation, text-conditioned generation, point-cloud completion, and image-conditioned generation.

arxiv情報

著者 Biao Zhang,Jiapeng Tang,Matthias Niessner,Peter Wonka
発行日 2023-05-01 22:19:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.GR パーマリンク