RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in Dynamic Environments

要約

通常、視覚または視覚慣性オドメトリ システムにとって、動的なシーンと純粋な回転の問題を処理するのは困難です。
この研究では、これら 2 つの問題の両方を処理するために、RD-VIO と呼ばれる新しい視覚慣性オドメトリ (VIO) システムを設計します。
まず、2 段階のプロセスでキーポイントを堅牢に検出および照合できる IMU-PARSAC アルゴリズムを提案します。
最初の状態では、視覚的測定と IMU 測定を使用して、ランドマークが新しいキーポイントと照合されます。
マッチングから統計情報を収集し、第 2 段階でキーポイント内マッチングをガイドします。
次に、純粋な回転の問題を処理するために、動きのタイプを検出し、データ関連付けプロセス中に遅延三角形分割手法を適応させます。
純粋な回転フレームを特殊なサブフレームにします。
視覚的慣性バンドル調整を解決する場合、純粋な回転運動に追加の制約が与えられます。
提案された VIO システムを公開データセットとオンライン比較で評価します。
実験では、提案された RD-VIO が動的環境において他の方法よりも明らかな利点があることを示しています。
ソース コードは \href{https://github.com/openxrlab/xrslam}{{\fontfamily{pcr}\selectfont https://github.com/openxrlab/xrslam}} で入手できます。

要約(オリジナル)

It is typically challenging for visual or visual-inertial odometry systems to handle the problems of dynamic scenes and pure rotation. In this work, we design a novel visual-inertial odometry (VIO) system called RD-VIO to handle both of these two problems. Firstly, we propose an IMU-PARSAC algorithm which can robustly detect and match keypoints in a two-stage process. In the first state, landmarks are matched with new keypoints using visual and IMU measurements. We collect statistical information from the matching and then guide the intra-keypoint matching in the second stage. Secondly, to handle the problem of pure rotation, we detect the motion type and adapt the deferred-triangulation technique during the data-association process. We make the pure-rotational frames into the special subframes. When solving the visual-inertial bundle adjustment, they provide additional constraints to the pure-rotational motion. We evaluate the proposed VIO system on public datasets and online comparison. Experiments show the proposed RD-VIO has obvious advantages over other methods in dynamic environments. The source code is available at: \href{https://github.com/openxrlab/xrslam}{{\fontfamily{pcr}\selectfont https://github.com/openxrlab/xrslam}}.

arxiv情報

著者 Jinyu Li,Xiaokun Pan,Gan Huang,Ziyang Zhang,Nan Wang,Hujun Bao,Guofeng Zhang
発行日 2024-02-16 08:49:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク