要約
屋外シーンのスケールでライダーポイントで直接動作するトレーニング拡散モデルは、広い視野でホワイトノイズから細かい細部を生成することが難しいために困難です。
拡散モデルによるシーンの完成に対処する最新の作品は、元のDDPMを局所拡散プロセスとして再定式化することにより、この問題に取り組んでいます。
現在、バニラDDPMが使用されているオブジェクトのレベルで操作するという一般的な慣行とは対照的です。
この作業では、これら2つの作業ライン間のギャップを埋めます。
局所拡散定式化の近似を特定し、シーンレベルで動作する必要がないことを示し、適切に選択された出発点を持つバニラDDPMは完了に十分であることを示しています。
最後に、私たちの方法であるLIDPMがSemantickittiのシーン完了においてより良い結果につながることを示しています。
プロジェクトページはhttps://astra-vision.github.io/lidpmです。
要約(オリジナル)
Training diffusion models that work directly on lidar points at the scale of outdoor scenes is challenging due to the difficulty of generating fine-grained details from white noise over a broad field of view. The latest works addressing scene completion with diffusion models tackle this problem by reformulating the original DDPM as a local diffusion process. It contrasts with the common practice of operating at the level of objects, where vanilla DDPMs are currently used. In this work, we close the gap between these two lines of work. We identify approximations in the local diffusion formulation, show that they are not required to operate at the scene level, and that a vanilla DDPM with a well-chosen starting point is enough for completion. Finally, we demonstrate that our method, LiDPM, leads to better results in scene completion on SemanticKITTI. The project page is https://astra-vision.github.io/LiDPM .
arxiv情報
著者 | Tetiana Martyniuk,Gilles Puy,Alexandre Boulch,Renaud Marlet,Raoul de Charette |
発行日 | 2025-04-24 17:59:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google