DreamSparse: Escaping from Plato’s Cave with 2D Frozen Diffusion Model Given Sparse Views

要約

いくつかのビューから新しいビュー画像を合成することは、困難ですが実際的な問題です。
既存の方法では、提供される情報が不十分であるため、このような少数のビュー設定では高品質の結果を生成するのに苦労したり、オブジェクトごとの最適化が必要になったりすることがよくあります。
この研究では、新しいビュー画像を合成するための事前トレーニング済み拡散モデルの強力な 2D 事前分布の活用を検討します。
それにもかかわらず、2D 拡散モデルには 3D 認識が欠けており、画像合成が歪んでアイデンティティが損なわれることになります。
これらの問題に対処するために、私たちは、フリーズされた事前トレーニング済み拡散モデルがジオメトリと同一性の一貫した新しいビュー画像を生成できるようにするフレームワークである DreamSparse を提案します。
具体的には、DreamSparse には、まばらなビューから 3D フィーチャを 3D 事前にキャプチャするように設計されたジオメトリ モジュールが組み込まれています。
続いて、空間誘導モデルを導入して、これらの 3D 特徴マップを生成プロセス用の空間情報に変換します。
この情報は、事前トレーニングされた拡散モデルをガイドするために使用され、調整することなく幾何学的に一貫した画像を生成できるようになります。
DreamSparse は、事前トレーニングされた拡散モデルの強力な画像事前分布を活用して、オブジェクト レベルとシーン レベルの画像の両方に対して高品質の新しいビューを合成し、オープンセット画像に一般化することができます。
実験結果は、私たちのフレームワークがまばらなビューから新しいビュー画像を効果的に合成でき、トレーニングされたカテゴリ画像とオープンセットのカテゴリ画像の両方でベースラインを上回るパフォーマンスを発揮することを示しています。
詳細な結果は、プロジェクト ページ https://sites.google.com/view/dreamsparse-webpage でご覧いただけます。

要約(オリジナル)

Synthesizing novel view images from a few views is a challenging but practical problem. Existing methods often struggle with producing high-quality results or necessitate per-object optimization in such few-view settings due to the insufficient information provided. In this work, we explore leveraging the strong 2D priors in pre-trained diffusion models for synthesizing novel view images. 2D diffusion models, nevertheless, lack 3D awareness, leading to distorted image synthesis and compromising the identity. To address these problems, we propose DreamSparse, a framework that enables the frozen pre-trained diffusion model to generate geometry and identity-consistent novel view image. Specifically, DreamSparse incorporates a geometry module designed to capture 3D features from sparse views as a 3D prior. Subsequently, a spatial guidance model is introduced to convert these 3D feature maps into spatial information for the generative process. This information is then used to guide the pre-trained diffusion model, enabling it to generate geometrically consistent images without tuning it. Leveraging the strong image priors in the pre-trained diffusion models, DreamSparse is capable of synthesizing high-quality novel views for both object and scene-level images and generalising to open-set images. Experimental results demonstrate that our framework can effectively synthesize novel view images from sparse views and outperforms baselines in both trained and open-set category images. More results can be found on our project page: https://sites.google.com/view/dreamsparse-webpage.

arxiv情報

著者 Paul Yoo,Jiaxian Guo,Yutaka Matsuo,Shixiang Shane Gu
発行日 2023-06-16 15:10:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.GR パーマリンク