要約
LiDAR生成モデルの構築は、自律移動ロボットにおける復元、シーン操作、スケーラブルなシミュレーションのための強力なデータプリオールとして期待されている。近年、拡散モデルを用いたアプローチが登場し、トレーニングの安定性と生成品質が大幅に改善されました。拡散モデルの成功にもかかわらず、高品質のサンプルを生成するには、ニューラルネットワークの実行を何度も繰り返す必要があり、増大する計算コストがロボットアプリケーションの障壁となる可能性がある。この課題に対処するため、本稿ではLiDARデータのための高速かつ高忠実度の生成モデルであるR2Flowを紹介する。本手法は、直線的な軌跡を学習する整流フローに基づいており、拡散モデルに対してはるかに少ないサンプリングステップでデータ生成をシミュレートする。また、LiDARレンジと反射率測定の画像表現を処理するための効率的なTransformerベースのモデルアーキテクチャを提案する。KITTI-360データセットの無条件生成に関する実験により、効率と品質の両面で我々のアプローチの有効性が実証された。
要約(オリジナル)
Building LiDAR generative models holds promise as powerful data priors for restoration, scene manipulation, and scalable simulation in autonomous mobile robots. In recent years, approaches using diffusion models have emerged, significantly improving training stability and generation quality. Despite the success of diffusion models, generating high-quality samples requires numerous iterations of running neural networks, and the increasing computational cost can pose a barrier to robotics applications. To address this challenge, this paper presents R2Flow, a fast and high-fidelity generative model for LiDAR data. Our method is based on rectified flows that learn straight trajectories, simulating data generation with much fewer sampling steps against diffusion models. We also propose a efficient Transformer-based model architecture for processing the image representation of LiDAR range and reflectance measurements. Our experiments on the unconditional generation of the KITTI-360 dataset demonstrate the effectiveness of our approach in terms of both efficiency and quality.
arxiv情報
著者 | Kazuto Nakashima,Xiaowen Liu,Tomoya Miyawaki,Yumi Iwashita,Ryo Kurazume |
発行日 | 2024-12-03 08:10:53+00:00 |
arxivサイト | arxiv_id(pdf) |