要約
LiDAR での可動物体や移動物体の正確な検出は、ナビゲーションにとって非常に重要です。
既存の作品のほとんどは、ナビゲーション中に移動オブジェクトを抽出して削除することに重点を置いています。
歩行者、駐車車両などの可動物体(静的物体も将来的には移動する可能性があります)。
誤航行や事故の原因となります。
このような場合、移動する可能性のある物体を検出する必要があります。
この目的を達成するために、我々は、他の方法では遮蔽されるシーンの静的な部分を生成することによって可動オブジェクトと移動オブジェクトをセグメント化する学習ベースのアプローチを提案します。
私たちのモデルは、課題となるまばらな産業用データセットを含む 3 つのデータセットを使用した静的 LiDAR 再構築において、既存のベースラインよりも優れたパフォーマンスを発揮します。
産業環境など、あまり一般的ではないものの重要な設定では、このようなラベルが常に利用できるとは限らないため、セグメンテーション ラベルの助けを借りずにこれを実現します。
私たちのモデルによって生成されたシーンの動かない静的な部分は、SLAM の下流ナビゲーションにとって非常に重要です。
モデルによって検出された可動オブジェクトは、ナビゲーションを支援するために下流の 3D 検出器に供給できます。
セグメンテーションは使用しませんが、SLAM の動的オブジェクトを削除するためにセグメンテーションを使用するナビゲーション ベースラインに対してメソッドを評価します。
いくつかのデータセットに対する広範な実験を通じて、私たちのモデルがナビゲーションに関してこれらのベースラインを超えていることを示しました。
要約(オリジナル)
Accurate detection of movable and moving objects in LiDAR is of vital importance for navigation. Most existing works focus on extracting and removing moving objects during navigation. Movable objects like pedestrians, parked vehicles, etc. although static may move in the future. This leads to erroneous navigation and accidents. In such cases, it becomes necessary to detect potentially movable objects. To this end, we present a learning-based approach that segments movable and moving objects by generating static parts of scenes that are otherwise occluded. Our model performs superior to existing baselines on static LiDAR reconstructions using 3 datasets including a challenging sparse industrial dataset. We achieve this without the assistance of any segmentation labels because such labels might not always be available for less popular yet important settings like industrial environments. The non-movable static parts of the scene generated by our model are of vital importance for downstream navigation for SLAM. The movable objects detected by our model can be fed to a downstream 3D detector for aiding navigation. Though we do not use segmentation, we evaluate our method against navigation baselines that use it to remove dynamic objects for SLAM. Through extensive experiments on several datasets, we showcase that our model surpasses these baselines on navigation.
arxiv情報
著者 | Prashant Kumar,Onkar Susladkar,Dhruv Makwana,Anurag Mittal,Prem Kumar Kalra |
発行日 | 2023-06-26 16:16:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google