要約
我々は、既存の手法の限界に対処し、単一画像から多様で高品質な3Dオブジェクトを生成できる、新しい3D生成手法、ImageNetにおけるGenerative 3D Reconstruction (G3DR)を紹介する。本フレームワークの中心は、高幾何学的忠実度を持つシーンの生成を可能にする、新しい深度正則化技術である。G3DRはまた、CLIPのような事前に訓練された言語ビジョンモデルを活用し、新しいビューでの再構成を可能にし、世代の視覚的リアリズムを向上させる。さらに、G3DRは、世代の品質をさらに向上させるために、シンプルで効果的なサンプリング手順を設計します。G3DRは、クラスまたはテキスト条件付けに基づく多様で効率的な3Dアセット生成を提供します。そのシンプルさにもかかわらず、G3DRは、学習時間が半分で済むにもかかわらず、知覚メトリクスで最大22%、ジオメトリスコアで90%改善し、最先端の手法を打ち負かすことができます。コードはhttps://github.com/preddy5/G3DR。
要約(オリジナル)
We introduce a novel 3D generative method, Generative 3D Reconstruction (G3DR) in ImageNet, capable of generating diverse and high-quality 3D objects from single images, addressing the limitations of existing methods. At the heart of our framework is a novel depth regularization technique that enables the generation of scenes with high-geometric fidelity. G3DR also leverages a pretrained language-vision model, such as CLIP, to enable reconstruction in novel views and improve the visual realism of generations. Additionally, G3DR designs a simple but effective sampling procedure to further improve the quality of generations. G3DR offers diverse and efficient 3D asset generation based on class or text conditioning. Despite its simplicity, G3DR is able to beat state-of-theart methods, improving over them by up to 22% in perceptual metrics and 90% in geometry scores, while needing only half of the training time. Code is available at https://github.com/preddy5/G3DR
arxiv情報
| 著者 | Pradyumna Reddy,Ismail Elezi,Jiankang Deng |
| 発行日 | 2024-04-03 17:42:11+00:00 |
| arxivサイト | arxiv_id(pdf) |