要約
Visual Simultaneous Localization and Mapping (VSLAM) における 3D ガウス スプラッティング (3DGS) の最初のアプリケーションでは、単眼ビデオ ストリームからの高品質のボリューム再構成の生成を実証します。
ただし、これらの有望な進歩にもかかわらず、現在の 3DGS 統合では、従来の VSLAM と比較して追跡パフォーマンスが低下し、動作速度が低下しています。
これらの問題に対処するために、3DGS を単眼測光 SLAM システムである Direct Sparse Odometry と統合することを提案します。
私たちは、標準的なモーションから構造を取得する方法ではなく、直接スパース オドメトリ点群出力を使用すると、高品質のレンダリングを達成するために必要なトレーニング時間が大幅に短縮されることを示す予備実験を行いました。
3DGS トレーニング時間を短縮することで、モバイル ハードウェア上でリアルタイムに動作する 3DGS 統合 SLAM システムの開発が可能になります。
これらの有望な初期発見は、従来の VSLAM システムと 3DGS の組み合わせについてさらなる研究が正当であることを示唆しています。
要約(オリジナル)
Initial applications of 3D Gaussian Splatting (3DGS) in Visual Simultaneous Localization and Mapping (VSLAM) demonstrate the generation of high-quality volumetric reconstructions from monocular video streams. However, despite these promising advancements, current 3DGS integrations have reduced tracking performance and lower operating speeds compared to traditional VSLAM. To address these issues, we propose integrating 3DGS with Direct Sparse Odometry, a monocular photometric SLAM system. We have done preliminary experiments showing that using Direct Sparse Odometry point cloud outputs, as opposed to standard structure-from-motion methods, significantly shortens the training time needed to achieve high-quality renders. Reducing 3DGS training time enables the development of 3DGS-integrated SLAM systems that operate in real-time on mobile hardware. These promising initial findings suggest further exploration is warranted in combining traditional VSLAM systems with 3DGS.
arxiv情報
| 著者 | Yan Song Hu,Dayou Mao,Yuhao Chen,John Zelek |
| 発行日 | 2024-08-07 15:01:08+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google