Taming Transformers for Realistic Lidar Point Cloud Generation

要約

拡散モデル (DM) は、サンプリング中の安定したトレーニングと反復改良の恩恵を受けて、LiDAR 点群生成タスクで最先端 (SOTA) の結果を達成しました。
ただし、DM は、固有のノイズ除去プロセスにより、LiDAR レイドロップ ノイズを現実的にモデル化できないことがよくあります。
レイドロップ ノイズの生成を強化しながら反復サンプリングの強度を維持するために、自己回帰変換を使用して画像空間ではなく潜在空間で距離画像を反復サンプリングする生成モデルである LidarGRIT を導入します。
さらに、LidarGRIT は VQ-VAE を利用して、距離画像とレイドロップ マスクを個別にデコードします。
私たちの結果は、LidarGRIT が KITTI-360 および KITTI オドメトリ データセットで SOTA モデルと比較して優れたパフォーマンスを達成していることを示しています。
コードはhttps://github.com/hamedhaghighi/LidarGRITで入手できます。

要約(オリジナル)

Diffusion Models (DMs) have achieved State-Of-The-Art (SOTA) results in the Lidar point cloud generation task, benefiting from their stable training and iterative refinement during sampling. However, DMs often fail to realistically model Lidar raydrop noise due to their inherent denoising process. To retain the strength of iterative sampling while enhancing the generation of raydrop noise, we introduce LidarGRIT, a generative model that uses auto-regressive transformers to iteratively sample the range images in the latent space rather than image space. Furthermore, LidarGRIT utilises VQ-VAE to separately decode range images and raydrop masks. Our results show that LidarGRIT achieves superior performance compared to SOTA models on KITTI-360 and KITTI odometry datasets. Code available at:https://github.com/hamedhaghighi/LidarGRIT.

arxiv情報

著者 Hamed Haghighi,Amir Samadi,Mehrdad Dianati,Valentina Donzella,Kurt Debattista
発行日 2024-04-08 13:27:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, cs.RO パーマリンク