MCGMapper: Light-Weight Incremental Structure from Motion and Visual Localization With Planar Markers and Camera Groups

要約

屋内のテクスチャのないシーンや産業シナリオにおける Structure from Motion (SfM) と視覚的位置特定は、広く普及しているものの、挑戦的な研究トピックを提示します。
自然シーン向けに設計された既存の SfM 手法は、通常、そのような設定では堅牢な特徴抽出が不十分であるため、精度が低いか、マップ構築に失敗します。
人工的に設計された機能を備えたビジュアル マーカーは、これらの問題に効果的に対処できます。
それにもかかわらず、既存のマーカー支援 SfM 手法は、実行速度が遅い、収束が難しいなどの問題に直面しています。
また、それらは、固有のマーカー サイズという強い仮定によって支配されます。
この論文では、平面マーカーと既知の外部機能を備えた複数のカメラを利用して周囲の環境をキャプチャし、マーカー マップを再構築する新しい SfM フレームワークを提案します。
私たちのアルゴリズムでは、マーカーとカメラの初期ポーズがフロントエンドで Perspective-n-Points (PnP) を使用して計算され、マーカーとカメラ グループ用にカスタマイズされたバンドル調整方法がバックエンドで設計され、6 つのポーズが最適化されます。
DOF ポーズを直接設定します。
私たちのアルゴリズムは、さまざまなマーカー サイズを使用した大規模なシーンの再構築を容易にし、そのマップ構築の精度と速度は既存の方法を上回ることが示されています。
当社のアプローチは、研究室、地下室、倉庫、その他の産業環境を含む幅広いシナリオに適しています。
さらに、この研究分野における定量的なグラウンドトゥルース データセットの不足に対処するために、代表的なシナリオをシミュレーションに組み込み、データセットにポーズ ラベルを提供します。
データセットとソース コードは GitHub で入手できます。

要約(オリジナル)

Structure from Motion (SfM) and visual localization in indoor texture-less scenes and industrial scenarios present prevalent yet challenging research topics. Existing SfM methods designed for natural scenes typically yield low accuracy or map-building failures due to insufficient robust feature extraction in such settings. Visual markers, with their artificially designed features, can effectively address these issues. Nonetheless, existing marker-assisted SfM methods encounter problems like slow running speed and difficulties in convergence; and also, they are governed by the strong assumption of unique marker size. In this paper, we propose a novel SfM framework that utilizes planar markers and multiple cameras with known extrinsics to capture the surrounding environment and reconstruct the marker map. In our algorithm, the initial poses of markers and cameras are calculated with Perspective-n-Points (PnP) in the front-end, while bundle adjustment methods customized for markers and camera groups are designed in the back-end to optimize the 6-DOF pose directly. Our algorithm facilitates the reconstruction of large scenes with different marker sizes, and its accuracy and speed of map building are shown to surpass existing methods. Our approach is suitable for a wide range of scenarios, including laboratories, basements, warehouses, and other industrial settings. Furthermore, we incorporate representative scenarios into simulations and also supply our datasets with pose labels to address the scarcity of quantitative ground-truth datasets in this research field. The datasets and source code are available on GitHub.

arxiv情報

著者 Yusen Xie,Zhenmin Huang,Kai Chen,Lei Zhu,Jun Ma
発行日 2024-05-26 15:19:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク