要約
効率的な視覚慣性オドメトリ (VIO) は、ペイロードに制約のあるロボットにとって非常に重要です。
最新の最適化ベースのアルゴリズムは優れた精度を実現していますが、MSCKF ベースの VIO アルゴリズムは、その効率的で一貫したパフォーマンスのために依然として広く求められています。
MSCKF は従来のマルチビュー ジオメトリに基づいて構築されているため、測定された残差は状態エラーだけでなく、フィーチャの位置エラーにも関連します。
EKF フュージョンを適用するには、観測モデルから特徴位置エラーを除去するための投影プロセスが必要ですが、これはモデルと精度の低下につながる可能性があります。
モデルの一貫性を維持しながら効率的な視覚慣性融合モデルを取得するために、新しい Pose-Only (PO) マルチビュー ジオメトリ記述を使用して MSCKF VIO を再構成することを提案します。
新しく構築されたフィルターでは、PO 再投影残差をモデル化しました。これは運動状態のみに関連するため、空間投影の要件を克服します。
さらに、新しいフィルターは特徴の位置情報を必要としないため、3D 再構成手順によってもたらされる計算コストと線形化誤差が除去されます。
複数のデータセットに対して包括的な実験を実施し、提案された手法により、困難なシーケンスにおいて精度の向上と一貫したパフォーマンスが示されました。
要約(オリジナル)
Efficient Visual-Inertial Odometry (VIO) is crucial for payload-constrained robots. Though modern optimization-based algorithms have achieved superior accuracy, the MSCKF-based VIO algorithms are still widely demanded for their efficient and consistent performance. As MSCKF is built upon the conventional multi-view geometry, the measured residuals are not only related to the state errors but also related to the feature position errors. To apply EKF fusion, a projection process is required to remove the feature position error from the observation model, which can lead to model and accuracy degradation. To obtain an efficient visual-inertial fusion model, while also preserving the model consistency, we propose to reconstruct the MSCKF VIO with the novel Pose-Only (PO) multi-view geometry description. In the newly constructed filter, we have modeled PO reprojection residuals, which are solely related to the motion states and thus overcome the requirements of space projection. Moreover, the new filter does not require any feature position information, which removes the computational cost and linearization errors brought in by the 3D reconstruction procedure. We have conducted comprehensive experiments on multiple datasets, where the proposed method has shown accuracy improvements and consistent performance in challenging sequences.
arxiv情報
著者 | Du Xueyu,Zhang Lilian,Liu Ruochen,Wang Maosong,Wu Wenqi,Mao Jun |
発行日 | 2024-07-02 02:18:35+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google