要約
まばらな再注入誤差、慣性測定単位の事前統合、および密度の高い体積占有マッピングを伴う相対的なポーズ係数を密接にカップルする視覚的な同時ローカリゼーションとマッピングを提案します。
これにより、深いニューラルネットワークからの深さの予測は、完全に確率的な方法で融合されます。
具体的には、私たちの方法は厳密に不確実性を認識しています。まず、ロボットのステレオリグからだけでなく、範囲のベースライン全体で深さ情報を提供するモーションステレオをさらに融合するため、マッピングの精度を大幅に増加させるモーションステレオをさらに確率的に融合します。
次に、予測および融合された深さの不確実性は、占有確率だけでなく、確率的非線形最小二乗推定器に入る生成された密なサブマップ間のアライメント係数にも伝播します。
このサブマップ表現は、大規模なグローバルに一貫したジオメトリを提供します。
私たちの方法は2つのベンチマークデータセットで徹底的に評価されるため、ARTの最新技術を超えるローカリゼーションとマッピングの精度が発生し、同時に、下流のロボット計画と制御にリアルタイムで使用できるボリューム測定の占有率を同時に提供します。
要約(オリジナル)
We propose visual-inertial simultaneous localization and mapping that tightly couples sparse reprojection errors, inertial measurement unit pre-integrals, and relative pose factors with dense volumetric occupancy mapping. Hereby depth predictions from a deep neural network are fused in a fully probabilistic manner. Specifically, our method is rigorously uncertainty-aware: first, we use depth and uncertainty predictions from a deep network not only from the robot’s stereo rig, but we further probabilistically fuse motion stereo that provides depth information across a range of baselines, therefore drastically increasing mapping accuracy. Next, predicted and fused depth uncertainty propagates not only into occupancy probabilities but also into alignment factors between generated dense submaps that enter the probabilistic nonlinear least squares estimator. This submap representation offers globally consistent geometry at scale. Our method is thoroughly evaluated in two benchmark datasets, resulting in localization and mapping accuracy that exceeds the state of the art, while simultaneously offering volumetric occupancy directly usable for downstream robotic planning and control in real-time.
arxiv情報
著者 | Jaehyung Jung,Simon Boche,Sebastián Barbas Laina,Stefan Leutenegger |
発行日 | 2025-03-07 16:41:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google