要約
単眼ビデオのカメラの軌跡をリダイレクトするための新しいアプローチであるTrajectoryCrafterを提示します。
確率的コンテンツ生成からの決定論的ビュー変換を解き放つことにより、私たちの方法は、ユーザー指定のカメラの軌跡を正確に制御することを実現します。
ポイントクラウドレンダーとソースビデオを条件として同時に統合し、正確なビュー変換とコヒーレント4Dコンテンツ生成を確保する新しいデュアルストリーム条件付きビデオ拡散モデルを提案します。
希少なマルチビュービデオを活用する代わりに、革新的なダブルレプロジェット戦略によって、Webスケールの単眼ビデオと静的なマルチビューデータセットを組み合わせたハイブリッドトレーニングデータセットをキュレートし、多様なシーン全体で堅牢な一般化を大幅に促進します。
マルチビューと大規模な単眼ビデオに関する広範な評価は、私たちの方法の優れたパフォーマンスを示しています。
要約(オリジナル)
We present TrajectoryCrafter, a novel approach to redirect camera trajectories for monocular videos. By disentangling deterministic view transformations from stochastic content generation, our method achieves precise control over user-specified camera trajectories. We propose a novel dual-stream conditional video diffusion model that concurrently integrates point cloud renders and source videos as conditions, ensuring accurate view transformations and coherent 4D content generation. Instead of leveraging scarce multi-view videos, we curate a hybrid training dataset combining web-scale monocular videos with static multi-view datasets, by our innovative double-reprojection strategy, significantly fostering robust generalization across diverse scenes. Extensive evaluations on multi-view and large-scale monocular videos demonstrate the superior performance of our method.
arxiv情報
著者 | Mark YU,Wenbo Hu,Jinbo Xing,Ying Shan |
発行日 | 2025-03-07 17:57:53+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google