Uncertainty-Aware Visual-Inertial SLAM with Volumetric Occupancy Mapping

要約

我々は、疎な再投影誤差、慣性測定ユニットの事前積分、および相対姿勢因子を密な体積占有マッピングと緊密に結合する、視覚と慣性の同時位置特定とマッピングを提案します。
これにより、ディープ ニューラル ネットワークからの深度予測が完全に確率的な方法で融合されます。
具体的には、私たちの手法は厳密に不確実性を認識しています。まず、ロボットのステレオ リグだけでなくディープ ネットワークからの深度と不確実性の予測を使用します。さらに、さまざまなベースラインにわたる深度情報を提供するモーション ステレオを確率的に融合するため、不確実性の予測が大幅に向上します。
マッピングの精度。
次に、予測および融合された深さの不確実性は、占有確率だけでなく、確率的非線形最小二乗推定器に入力される、生成された密なサブマップ間の位置合わせ係数にも伝播します。
このサブマップ表現は、大規模なグローバルに一貫したジオメトリを提供します。
私たちの手法は 2 つのベンチマーク データセットで徹底的に評価されており、その結果、最新技術を超える位置特定とマッピングの精度が得られると同時に、下流のロボット計画とリアルタイムの制御に直接使用できる体積占有率も提供されます。

要約(オリジナル)

We propose visual-inertial simultaneous localization and mapping that tightly couples sparse reprojection errors, inertial measurement unit pre-integrals, and relative pose factors with dense volumetric occupancy mapping. Hereby depth predictions from a deep neural network are fused in a fully probabilistic manner. Specifically, our method is rigorously uncertainty-aware: first, we use depth and uncertainty predictions from a deep network not only from the robot’s stereo rig, but we further probabilistically fuse motion stereo that provides depth information across a range of baselines, therefore drastically increasing mapping accuracy. Next, predicted and fused depth uncertainty propagates not only into occupancy probabilities but also into alignment factors between generated dense submaps that enter the probabilistic nonlinear least squares estimator. This submap representation offers globally consistent geometry at scale. Our method is thoroughly evaluated in two benchmark datasets, resulting in localization and mapping accuracy that exceeds the state of the art, while simultaneously offering volumetric occupancy directly usable for downstream robotic planning and control in real-time.

arxiv情報

著者 Jaehyung Jung,Simon Boche,Sebastian Barbas Laina,Stefan Leutenegger
発行日 2024-09-18 15:24:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク