Structure PLP-SLAM: Efficient Sparse Mapping and Localization using Point, Line and Plane for Monocular, RGB-D and Stereo Cameras

要約

このホワイトペーパーでは、ポイントアンドラインクラウドを利用して堅牢なカメラの位置特定を行うと同時に、構造マップを提供する区分的平面再構成(PPR)モジュールを組み込んだビジュアルSLAMシステムについて説明します。
単一のカメラを使用するなど、追跡と並行して縮尺の一貫したマップを作成するには、縮尺があいまいな幾何学的プリミティブを再構築するという課題があり、バンドル調整(BA)のグラフ最適化がさらに困難になります。
再構築された線と平面でいくつかの実行時の最適化を提案することにより、これらの問題に対処します。
次に、システムは、単眼フレームワークの設計に基づいた深度センサーとステレオセンサーで拡張されます。
結果は、提案されたSLAMがセマンティック機能を緊密に組み込んで、フロントエンドの追跡とバックエンドの最適化の両方を強化することを示しています。
さまざまなデータセットでシステムを徹底的に評価し、コミュニティ向けにコードをオープンソース化します(https://github.com/PeterFWS/Structure-PLP-SLAM)。

要約(オリジナル)

This paper demonstrates a visual SLAM system that utilizes point and line cloud for robust camera localization, simultaneously, with an embedded piece-wise planar reconstruction (PPR) module which in all provides a structural map. To build a scale consistent map in parallel with tracking, such as employing a single camera brings the challenge of reconstructing geometric primitives with scale ambiguity, and further introduces the difficulty in graph optimization of bundle adjustment (BA). We address these problems by proposing several run-time optimizations on the reconstructed lines and planes. The system is then extended with depth and stereo sensors based on the design of the monocular framework. The results show that our proposed SLAM tightly incorporates the semantic features to boost both frontend tracking as well as backend optimization. We evaluate our system exhaustively on various datasets, and open-source our code for the community (https://github.com/PeterFWS/Structure-PLP-SLAM).

arxiv情報

著者 Fangwen Shu,Jiaxuan Wang,Alain Pagani,Didier Stricker
発行日 2022-07-19 12:31:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク