要約
環境内に変動要因が存在すると、Simultaneous Localization and Mapping (SLAM) アルゴリズムにおける静的環境の基本的な前提に違反するため、カメラの位置特定の精度が低下する可能性があります。
動的環境向けの最近のセマンティック SLAM システムは、2D セマンティック情報のみ、または幾何学的情報のみに依存するか、またはそれらの結果を緩やかに統合された方法で組み合わせます。
この研究論文では、視覚的な 3D オブジェクト検出を備えた動的なシーンに合わせて調整された 3DS-SLAM、3D セマンティック SLAM を紹介します。
3DS-SLAM は、意味論的制約と幾何学的制約の両方を順番に解決する密結合アルゴリズムです。
私たちは、動的オブジェクトを識別するための点群ベースのオブジェクト検出用の 3D 部分認識ハイブリッド トランスフォーマーを設計しました。
続いて、HDBSCAN クラスタリングに基づく動的特徴フィルターを提案し、絶対深度の大きな差を持つオブジェクトを抽出します。
ORB-SLAM2 と比較すると、3DS-SLAM は、TUM RGB-D データセットの動的シーケンス全体で平均 98.01% の向上を示します。
さらに、動的環境向けに設計された他の 4 つの主要な SLAM システムのパフォーマンスを上回ります。
要約(オリジナル)
The existence of variable factors within the environment can cause a decline in camera localization accuracy, as it violates the fundamental assumption of a static environment in Simultaneous Localization and Mapping (SLAM) algorithms. Recent semantic SLAM systems towards dynamic environments either rely solely on 2D semantic information, or solely on geometric information, or combine their results in a loosely integrated manner. In this research paper, we introduce 3DS-SLAM, 3D Semantic SLAM, tailored for dynamic scenes with visual 3D object detection. The 3DS-SLAM is a tightly-coupled algorithm resolving both semantic and geometric constraints sequentially. We designed a 3D part-aware hybrid transformer for point cloud-based object detection to identify dynamic objects. Subsequently, we propose a dynamic feature filter based on HDBSCAN clustering to extract objects with significant absolute depth differences. When compared against ORB-SLAM2, 3DS-SLAM exhibits an average improvement of 98.01% across the dynamic sequences of the TUM RGB-D dataset. Furthermore, it surpasses the performance of the other four leading SLAM systems designed for dynamic environments.
arxiv情報
著者 | Ghanta Sai Krishna,Kundrapu Supriya,Sabur Baidya |
発行日 | 2023-10-10 07:48:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google