要約
このペーパーでは、LIGSMを紹介します。LigSMは、Lidarデータを統合して3Dシーンマッピングの精度と堅牢性を向上させる、Lidarが強化した3Dガウススプラッティング(3DGS)マッピングフレームワークを紹介します。
LIGSMは、画像とライダーポイント雲からの関節損失を構築して、ポーズを推定してそれらの外因性パラメーターを最適化し、センサーアライメントの変動に動的に適応することを可能にします。
さらに、LIDARポイントクラウドを活用して3DGSを初期化し、まばらなSFMポイントと比較してより密度の高い信頼性の高い出発点を提供します。
シーンレンダリングでは、フレームワークは、LIDAR投影から生成された深度マップを使用して、標準の画像ベースの監督を強化し、ジオメトリと測光の両方で正確なシーン表現を確保します。
公的および自己収集されたデータセットでの実験は、LIGSMがポーズ追跡とシーンのレンダリングの比較方法を上回ることを示しています。
要約(オリジナル)
This paper introduces LiGSM, a novel LiDAR-enhanced 3D Gaussian Splatting (3DGS) mapping framework that improves the accuracy and robustness of 3D scene mapping by integrating LiDAR data. LiGSM constructs joint loss from images and LiDAR point clouds to estimate the poses and optimize their extrinsic parameters, enabling dynamic adaptation to variations in sensor alignment. Furthermore, it leverages LiDAR point clouds to initialize 3DGS, providing a denser and more reliable starting points compared to sparse SfM points. In scene rendering, the framework augments standard image-based supervision with depth maps generated from LiDAR projections, ensuring an accurate scene representation in both geometry and photometry. Experiments on public and self-collected datasets demonstrate that LiGSM outperforms comparative methods in pose tracking and scene rendering.
arxiv情報
著者 | Jian Shen,Huai Yu,Ji Wu,Wen Yang,Gui-Song Xia |
発行日 | 2025-03-07 13:51:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google