UltraLiDAR: Learning Compact Representations for LiDAR Completion and Generation

要約

LiDAR は、3D 世界の正確な幾何学的測定を提供します。
残念ながら、高密度 LiDAR は非常に高価であり、ロービーム LiDAR によって捕捉される点群はまばらであることがよくあります。
これらの問題に対処するために、シーンレベルの LiDAR の完成、LiDAR の生成、および LiDAR の操作のためのデータ駆動型フレームワークである UltraLiDAR を紹介します。
UltraLiDAR の核心は、点群の幾何学的構造をエンコードし、ノイズに強く、操作が簡単なコンパクトな離散表現です。
私たちは、疎な点群の表現を密な点群の表現と一致させることで、あたかも実際の高密度 LiDAR によって捕捉されたかのように疎な点群を高密度化し、コストを大幅に削減できることを示します。
さらに、離散コードブックに対する事前学習を行うことで、自動運転用の多様で現実的な LiDAR 点群を生成できます。
私たちは、疎から密への LiDAR の完成と LiDAR の生成における UltraLiDAR の有効性を評価します。
実験の結果、私たちのアプローチで現実世界の点群を高密度化すると、下流の知覚システムのパフォーマンスが大幅に向上することがわかりました。
LiDAR 生成に関する従来技術と比較して、私たちのアプローチはより現実的な点群を生成します。
A/B テストによると、98.5% 以上の確率で、人間の参加者は以前の方法の結果よりも私たちの結果を好みます。

要約(オリジナル)

LiDAR provides accurate geometric measurements of the 3D world. Unfortunately, dense LiDARs are very expensive and the point clouds captured by low-beam LiDAR are often sparse. To address these issues, we present UltraLiDAR, a data-driven framework for scene-level LiDAR completion, LiDAR generation, and LiDAR manipulation. The crux of UltraLiDAR is a compact, discrete representation that encodes the point cloud’s geometric structure, is robust to noise, and is easy to manipulate. We show that by aligning the representation of a sparse point cloud to that of a dense point cloud, we can densify the sparse point clouds as if they were captured by a real high-density LiDAR, drastically reducing the cost. Furthermore, by learning a prior over the discrete codebook, we can generate diverse, realistic LiDAR point clouds for self-driving. We evaluate the effectiveness of UltraLiDAR on sparse-to-dense LiDAR completion and LiDAR generation. Experiments show that densifying real-world point clouds with our approach can significantly improve the performance of downstream perception systems. Compared to prior art on LiDAR generation, our approach generates much more realistic point clouds. According to A/B test, over 98.5\% of the time human participants prefer our results over those of previous methods.

arxiv情報

著者 Yuwen Xiong,Wei-Chiu Ma,Jingkang Wang,Raquel Urtasun
発行日 2023-11-02 17:57:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク