SIGNeRF: Scene Integrated Generation for Neural Radiance Fields

要約

最近、画像拡散モデルの進歩により、高品質な画像の生成が顕著に改善された。Neural Radiance Fields (NeRFs)と組み合わせることで、3D生成の新たな可能性を可能にした。しかし、ほとんどの生成的3Dアプローチはオブジェクト中心であり、既存のフォトリアリスティックなシーンの編集に適用することは容易ではない。我々は、高速で制御可能なNeRFシーン編集とシーン統合オブジェクト生成のための新しいアプローチであるSIGNeRFを提案する。新しい生成的更新戦略により、最適化を繰り返すことなく、編集画像全体の3D一貫性を保証する。我々は、深度条件付き拡散モデルが、単一のビューの代わりに画像のグリッドを要求することにより、3D一貫性のあるビューを生成する能力を本質的に持っていることを発見した。これらの洞察に基づき、修正画像のマルチビュー参照シートを導入する。本手法は、参照シートに基づいて画像コレクションを一貫して更新し、新たに生成された画像セットで元のNeRFを一度に精緻化する。画像拡散モデルの深度調整機構を利用することで、編集の空間的位置を細かく制御し、選択領域または外部メッシュによる形状誘導を強制する。

要約(オリジナル)

Advances in image diffusion models have recently led to notable improvements in the generation of high-quality images. In combination with Neural Radiance Fields (NeRFs), they enabled new opportunities in 3D generation. However, most generative 3D approaches are object-centric and applying them to editing existing photorealistic scenes is not trivial. We propose SIGNeRF, a novel approach for fast and controllable NeRF scene editing and scene-integrated object generation. A new generative update strategy ensures 3D consistency across the edited images, without requiring iterative optimization. We find that depth-conditioned diffusion models inherently possess the capability to generate 3D consistent views by requesting a grid of images instead of single views. Based on these insights, we introduce a multi-view reference sheet of modified images. Our method updates an image collection consistently based on the reference sheet and refines the original NeRF with the newly generated image set in one go. By exploiting the depth conditioning mechanism of the image diffusion model, we gain fine control over the spatial location of the edit and enforce shape guidance by a selected region or an external mesh.

arxiv情報

著者 Jan-Niklas Dihlmann,Andreas Engelhardt,Hendrik Lensch
発行日 2024-01-03 09:46:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.GR パーマリンク