要約
この論文では、統合された単眼ステレオ機能を視覚慣性密結合オドメトリ (UMS-VINS) に導入して、ロバストなポーズ推定を行います。
UMS-VINS には、2 台のカメラと低コストの慣性測定ユニット (IMU) が必要です。
UMS-VINS は、VINS-FUSION を次の 3 つの観点から改良した VINS-FUSION の進化形です。
1) UMS-VINS は、サブピクセル平面から特徴を抽出して追跡し、特徴のより良い位置を実現します。
2) UMS-VINS は、左右のカメラから追加の 2 次元機能を導入します。
3) ビジュアルの初期化に失敗した場合、IMU 伝播がポーズ推定に直接使用され、ビジュアルと IMU のアライメントが失敗した場合、UMS-VINS はビジュアル オドメトリを介してポーズを推定します。
公開データセットと新しい実世界実験の両方でのパフォーマンスは、提案された UMS-VINS が、ローカリゼーションの精度、ローカリゼーションの堅牢性、および環境適応性の観点から VINS-FUSION よりも優れていることを示しています。
要約(オリジナル)
This paper introduces the united monocular-stereo features into a visual-inertial tightly coupled odometry (UMS-VINS) for robust pose estimation. UMS-VINS requires two cameras and a low-cost inertial measurement unit (IMU). The UMS-VINS is an evolution of VINS-FUSION, which modifies the VINS-FUSION from the following three perspectives. 1) UMS-VINS extracts and tracks features from the sub-pixel plane to achieve better positions of the features. 2) UMS-VINS introduces additional 2-dimensional features from the left and/or right cameras. 3) If the visual initialization fails, the IMU propagation is directly used for pose estimation, and if the visual-IMU alignment fails, UMS-VINS estimates the pose via the visual odometry. The performances on both public datasets and new real-world experiments indicate that the proposed UMS-VINS outperforms the VINS-FUSION from the perspective of localization accuracy, localization robustness, and environmental adaptability.
arxiv情報
著者 | Chaoyang Jiang,Xiaoni Zheng,Zhe Jin,Chengpu Yu |
発行日 | 2023-03-15 12:10:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google