要約
我々は、容易に解釈可能な形状を持つ現実世界のシーンの大規模な 3D スキャンを解析するための教師なし手法を提案します。
この研究は、ユーザーによる注釈を必要とせずに、航空測量とマッピングのコンテキストで 3D シーンを分析するための実用的なツールを提供することを目的としています。
私たちのアプローチは、入力 3D 点群を学習されたプロトタイプの 3D 形状の小さなセットに分解する確率的再構成モデルに基づいています。
結果として得られる再構成は視覚的に解釈可能であり、複雑なシーンの教師なしインスタンスやローショットのセマンティック セグメンテーションを実行するために使用できます。
私たちは、現実世界のさまざまなシナリオからの 7 つの大規模な航空 LiDAR スキャンの新しいデータセットでモデルの有用性を実証します。
私たちのアプローチは、視覚的に解釈可能なままでありながら、分解精度の点で最先端の教師なし手法を上回っています。
コードとデータセットは https://romainloiseau.fr/learnable-earth-parser/ で入手できます。
要約(オリジナル)
We propose an unsupervised method for parsing large 3D scans of real-world scenes with easily-interpretable shapes. This work aims to provide a practical tool for analyzing 3D scenes in the context of aerial surveying and mapping, without the need for user annotations. Our approach is based on a probabilistic reconstruction model that decomposes an input 3D point cloud into a small set of learned prototypical 3D shapes. The resulting reconstruction is visually interpretable and can be used to perform unsupervised instance and low-shot semantic segmentation of complex scenes. We demonstrate the usefulness of our model on a novel dataset of seven large aerial LiDAR scans from diverse real-world scenarios. Our approach outperforms state-of-the-art unsupervised methods in terms of decomposition accuracy while remaining visually interpretable. Our code and dataset are available at https://romainloiseau.fr/learnable-earth-parser/
arxiv情報
著者 | Romain Loiseau,Elliot Vincent,Mathieu Aubry,Loic Landrieu |
発行日 | 2024-03-28 17:53:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google