要約
陸上および航空アプリケーション向けのセマンティック同時位置特定およびマッピング (SLAM) の最近の進歩にも関わらず、水中セマンティック SLAM は、独特のセンシング方式と水中で見られるオブジェクトクラスのため、未解決でほとんど対処されていない研究問題のままです。
この論文では、シーン内に存在するオブジェクト クラスの事前知識がなくても、さまざまな海洋オブジェクトを識別、位置特定、分類、マッピングできる、水中環境向けのオブジェクトベースのセマンティック SLAM 手法を紹介します。
この方法では、教師なしオブジェクトのセグメンテーションとオブジェクト レベルの特徴集約を実行し、オブジェクトの位置特定に光音響センサー フュージョンを使用します。
確率的データの関連付けは、観測値とランドマークの対応関係を決定するために使用されます。
このような対応関係を考慮して、この方法はランドマークと車両の位置推定を共同で最適化します。
さまざまな物体と困難な音響および照明条件を含む屋内および屋外の水中データセットが評価のために収集され、一般公開されます。
定量的および定性的な結果は、提案された方法がベースライン方法と比較して軌道誤差の減少を達成し、シーン内のすべてのオブジェクトの手作業でラベル付けされたデータを必要とするベースライン閉集合方法と同等のマップ精度を得ることができることを示しています。
要約(オリジナル)
Despite recent advances in semantic Simultaneous Localization and Mapping (SLAM) for terrestrial and aerial applications, underwater semantic SLAM remains an open and largely unaddressed research problem due to the unique sensing modalities and the object classes found underwater. This paper presents an object-based semantic SLAM method for underwater environments that can identify, localize, classify, and map a wide variety of marine objects without a priori knowledge of the object classes present in the scene. The method performs unsupervised object segmentation and object-level feature aggregation, and then uses opti-acoustic sensor fusion for object localization. Probabilistic data association is used to determine observation to landmark correspondences. Given such correspondences, the method then jointly optimizes landmark and vehicle position estimates. Indoor and outdoor underwater datasets with a wide variety of objects and challenging acoustic and lighting conditions are collected for evaluation and made publicly available. Quantitative and qualitative results show the proposed method achieves reduced trajectory error compared to baseline methods, and is able to obtain comparable map accuracy to a baseline closed-set method that requires hand-labeled data of all objects in the scene.
arxiv情報
著者 | Kurran Singh,Jungseok Hong,Nicholas R. Rypkema,John J. Leonard |
発行日 | 2024-03-19 15:42:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google