要約
無限規模の 3D 都市合成に向けて、ランダム ノイズから制約のない大規模な 3D 接地環境を構築およびレンダリングする新しいフレームワーク InfiniCity を提案します。
InfiniCity は、2D データと 3D データの両方を利用して、一見非現実的なタスクを 3 つの実行可能なモジュールに分解します。
最初に、無限ピクセル画像合成モジュールが鳥瞰図から任意の縮尺の 2D マップを生成します。
次に、octree ベースのボクセル補完モジュールが、生成された 2D マップを 3D octree に持ち上げます。
最後に、ボクセルベースのニューラル レンダリング モジュールがボクセルをテクスチャ化し、2D 画像をレンダリングします。
このように InfiniCity は、任意のスケールで通過可能な 3D 都市環境を合成し、ユーザーによる柔軟でインタラクティブな編集を可能にします。
提案されたフレームワークの有効性を定量的および定性的に実証します。
プロジェクトページ:https://hubert0527.github.io/infinicity/
要約(オリジナル)
Toward infinite-scale 3D city synthesis, we propose a novel framework, InfiniCity, which constructs and renders an unconstrainedly large and 3D-grounded environment from random noises. InfiniCity decomposes the seemingly impractical task into three feasible modules, taking advantage of both 2D and 3D data. First, an infinite-pixel image synthesis module generates arbitrary-scale 2D maps from the bird’s-eye view. Next, an octree-based voxel completion module lifts the generated 2D map to 3D octrees. Finally, a voxel-based neural rendering module texturizes the voxels and renders 2D images. InfiniCity can thus synthesize arbitrary-scale and traversable 3D city environments, and allow flexible and interactive editing from users. We quantitatively and qualitatively demonstrate the efficacy of the proposed framework. Project page: https://hubert0527.github.io/infinicity/
arxiv情報
著者 | Chieh Hubert Lin,Hsin-Ying Lee,Willi Menapace,Menglei Chai,Aliaksandr Siarohin,Ming-Hsuan Yang,Sergey Tulyakov |
発行日 | 2023-01-23 18:59:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google