HoloTime: Taming Video Diffusion Models for Panoramic 4D Scene Generation

要約

拡散モデルの急速な進歩は、通常、ユーザーエクスペリエンスにシーンレベルの4Dアセットを必要とするVRおよびARテクノロジーの適用に革命をもたらすという約束を保持しています。
それにもかかわらず、既存の拡散モデルは、主に静的3Dシーンまたはオブジェクトレベルのダイナミクスのモデリングに集中し、真に没入感のある体験を提供する能力を制約します。
この問題に対処するために、ビデオ拡散モデルを統合して単一のプロンプトまたは参照画像からパノラマビデオを生成するフレームワークと、生成されたパノラマビデオを4Dアセットにシームレスに変換し、ユーザー向けの完全な没入型の4Dエクスペリエンスを可能にする360度の4Dシーン再構成方法を生成するフレームワークであるHotimeを提案します。
具体的には、高忠実度のパノラマビデオを生成するためのビデオ拡散モデルを飼いならすために、下流の4Dシーン再構築タスクに適したパノラマビデオの最初の包括的なコレクションである360Worldデータセットを紹介します。
このキュレーションされたデータセットを使用すると、パノラマ画像を高品質のパノラマビデオに変換できる2段階の画像間拡散モデルであるパノラマアニメーターを提案します。
これに続いて、パノラマの時空の再構築を提示します。これは、時空の深さ推定方法を活用して生成されたパノラマビデオを4Dポイントクラウドに変換し、全体的な4Dガウスのスプラッティング表現の最適化を可能にし、空間的および時間的に一貫した4Dシーンを再構築します。
私たちの方法の有効性を検証するために、既存のアプローチと比較分析を実施し、パノラマビデオ生成と4Dシーンの再構成の両方においてその優位性を明らかにしました。
これは、より魅力的で現実的な没入型環境を作成する方法の能力を示しており、VRおよびARアプリケーションでのユーザーエクスペリエンスを強化します。

要約(オリジナル)

The rapid advancement of diffusion models holds the promise of revolutionizing the application of VR and AR technologies, which typically require scene-level 4D assets for user experience. Nonetheless, existing diffusion models predominantly concentrate on modeling static 3D scenes or object-level dynamics, constraining their capacity to provide truly immersive experiences. To address this issue, we propose HoloTime, a framework that integrates video diffusion models to generate panoramic videos from a single prompt or reference image, along with a 360-degree 4D scene reconstruction method that seamlessly transforms the generated panoramic video into 4D assets, enabling a fully immersive 4D experience for users. Specifically, to tame video diffusion models for generating high-fidelity panoramic videos, we introduce the 360World dataset, the first comprehensive collection of panoramic videos suitable for downstream 4D scene reconstruction tasks. With this curated dataset, we propose Panoramic Animator, a two-stage image-to-video diffusion model that can convert panoramic images into high-quality panoramic videos. Following this, we present Panoramic Space-Time Reconstruction, which leverages a space-time depth estimation method to transform the generated panoramic videos into 4D point clouds, enabling the optimization of a holistic 4D Gaussian Splatting representation to reconstruct spatially and temporally consistent 4D scenes. To validate the efficacy of our method, we conducted a comparative analysis with existing approaches, revealing its superiority in both panoramic video generation and 4D scene reconstruction. This demonstrates our method’s capability to create more engaging and realistic immersive environments, thereby enhancing user experiences in VR and AR applications.

arxiv情報

著者 Haiyang Zhou,Wangbo Yu,Jiawen Guan,Xinhua Cheng,Yonghong Tian,Li Yuan
発行日 2025-04-30 13:55:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク