要約
正確なカメラ制御と時間的な3D一貫性を備えた生成ビデオモデルであるGen3cを提示します。
以前のビデオモデルはすでに現実的なビデオを生成していますが、3D情報がほとんどない傾向があり、存在しないオブジェクトなどの矛盾につながる傾向があります。
カメラのパラメーターはニューラルネットワークへの単なる入力であり、ビデオがカメラにどのように依存するかを推測する必要があるため、カメラの制御は不正確です。
対照的に、Gen3cは、シード画像のピクセルごとの深さまたは以前に生成されたフレームを予測することにより得られる3Dキャッシュ:ポイントクラウドによって導かれます。
次のフレームを生成するとき、GEN3Cは、ユーザーが提供する新しいカメラの軌跡を使用して、3Dキャッシュの2Dレンダリングを条件付けます。
重要なことに、これはGen3cが以前に生成したものを覚えておく必要も、カメラのポーズから画像構造を推測する必要もないことを意味します。
代わりに、このモデルは、以前に観測されていなかった地域にすべての生成力を集中させ、シーン状態を次のフレームに進めることができます。
我々の結果は、運転シーンや単眼動的ビデオなどの挑戦的な設定でさえ、以前の作業よりも正確なカメラ制御や、まばらな視界の概念の結果で最先端の結果を示しています。
結果はビデオで最もよく表示されます。
ウェブページをご覧ください!
https://research.nvidia.com/labs/toronto-ai/gen3c/
要約(オリジナル)
We present GEN3C, a generative video model with precise Camera Control and temporal 3D Consistency. Prior video models already generate realistic videos, but they tend to leverage little 3D information, leading to inconsistencies, such as objects popping in and out of existence. Camera control, if implemented at all, is imprecise, because camera parameters are mere inputs to the neural network which must then infer how the video depends on the camera. In contrast, GEN3C is guided by a 3D cache: point clouds obtained by predicting the pixel-wise depth of seed images or previously generated frames. When generating the next frames, GEN3C is conditioned on the 2D renderings of the 3D cache with the new camera trajectory provided by the user. Crucially, this means that GEN3C neither has to remember what it previously generated nor does it have to infer the image structure from the camera pose. The model, instead, can focus all its generative power on previously unobserved regions, as well as advancing the scene state to the next frame. Our results demonstrate more precise camera control than prior work, as well as state-of-the-art results in sparse-view novel view synthesis, even in challenging settings such as driving scenes and monocular dynamic video. Results are best viewed in videos. Check out our webpage! https://research.nvidia.com/labs/toronto-ai/GEN3C/
arxiv情報
著者 | Xuanchi Ren,Tianchang Shen,Jiahui Huang,Huan Ling,Yifan Lu,Merlin Nimier-David,Thomas Müller,Alexander Keller,Sanja Fidler,Jun Gao |
発行日 | 2025-03-05 18:59:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google