要約
周囲の動的な自動運転シーンのための効率的かつ効果的なフレームワークである DrivingGaussian を紹介します。
移動するオブジェクトを含む複雑なシーンの場合、最初に増分静的 3D ガウスを使用してシーン全体の静的背景を連続的かつ段階的にモデル化します。
次に、複合動的ガウス グラフを活用して複数の移動オブジェクトを処理し、各オブジェクトを個別に再構築し、シーン内での正確な位置とオクルージョン関係を復元します。
さらに、ガウス スプラッティングに LiDAR を事前に使用して、より詳細なシーンを再構築し、パノラマの一貫性を維持します。
DrivingGaussian は、運転シーンの再構築において既存の方法を上回っており、高忠実度でマルチカメラの一貫性を備えたフォトリアリスティックなサラウンドビュー合成を可能にします。
私たちのプロジェクト ページは https://github.com/VDIGPKU/DrivingGaussian にあります。
要約(オリジナル)
We present DrivingGaussian, an efficient and effective framework for surrounding dynamic autonomous driving scenes. For complex scenes with moving objects, we first sequentially and progressively model the static background of the entire scene with incremental static 3D Gaussians. We then leverage a composite dynamic Gaussian graph to handle multiple moving objects, individually reconstructing each object and restoring their accurate positions and occlusion relationships within the scene. We further use a LiDAR prior for Gaussian Splatting to reconstruct scenes with greater details and maintain panoramic consistency. DrivingGaussian outperforms existing methods in driving scene reconstruction and enables photorealistic surround-view synthesis with high-fidelity and multi-camera consistency. Our project page is at: https://github.com/VDIGPKU/DrivingGaussian.
arxiv情報
著者 | Xiaoyu Zhou,Zhiwei Lin,Xiaojun Shan,Yongtao Wang,Deqing Sun,Ming-Hsuan Yang |
発行日 | 2024-02-27 15:26:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google