VOOM: Robust Visual Object Odometry and Mapping using Hierarchical Landmarks

要約

近年、オブジェクト指向同時ローカライゼーションおよびマッピング (SLAM) は、計算効率を維持しながら高レベルのセマンティック情報を提供できるため、ますます注目を集めています。
研究者の中には、モデル化されたオブジェクトの残差をバンドル調整に統合することで位置特定の精度を向上させようと試みている人もいます。
ただし、直方体や楕円体などの一般的な粗いオブジェクト モデルは特徴点よりも精度が低いため、特徴ベースのビジュアル SLAM システムよりも優れた結果を実証したシステムはほとんどありません。
この論文では、バンドル調整でオブジェクト残差を直接使用するのではなく、粗いから細かい方法で階層ランドマークとして高レベルのオブジェクトと低レベルのポイントを使用する、ビジュアル オブジェクト オドメトリおよびマッピング フレームワーク VOOM を提案します。
まず、物理的オブジェクトを表現するために使用される、改良された観測モデルと双対二次関数の新しいデータ関連付け方法を紹介します。
現実を忠実に反映した3D地図の作成が容易になります。
次に、オブジェクト情報を使用して特徴点のデータの関連付けを強化し、その結果、マップを更新します。
ビジュアル オブジェクト オドメトリ バックエンドでは、更新されたマップを使用して、カメラのポーズとオブジェクトをさらに最適化します。
一方、ローカル バンドル調整は、ビジュアル オブジェクト マッピング プロセスでオブジェクトとポイントベースの可視性グラフを利用して実行されます。
実験によると、VOOM は、ローカライゼーションの点で、オブジェクト指向 SLAM システムと ORB-SLAM2 などの特徴点 SLAM システムの両方より優れていることが示されています。
私たちのメソッドの実装は https://github.com/yutongwangBIT/VOOM.git で入手できます。

要約(オリジナル)

In recent years, object-oriented simultaneous localization and mapping (SLAM) has attracted increasing attention due to its ability to provide high-level semantic information while maintaining computational efficiency. Some researchers have attempted to enhance localization accuracy by integrating the modeled object residuals into bundle adjustment. However, few have demonstrated better results than feature-based visual SLAM systems, as the generic coarse object models, such as cuboids or ellipsoids, are less accurate than feature points. In this paper, we propose a Visual Object Odometry and Mapping framework VOOM using high-level objects and low-level points as the hierarchical landmarks in a coarse-to-fine manner instead of directly using object residuals in bundle adjustment. Firstly, we introduce an improved observation model and a novel data association method for dual quadrics, employed to represent physical objects. It facilitates the creation of a 3D map that closely reflects reality. Next, we use object information to enhance the data association of feature points and consequently update the map. In the visual object odometry backend, the updated map is employed to further optimize the camera pose and the objects. Meanwhile, local bundle adjustment is performed utilizing the objects and points-based covisibility graphs in our visual object mapping process. Experiments show that VOOM outperforms both object-oriented SLAM and feature points SLAM systems such as ORB-SLAM2 in terms of localization. The implementation of our method is available at https://github.com/yutongwangBIT/VOOM.git.

arxiv情報

著者 Yutong Wang,Chaoyang Jiang,Xieyuanli Chen
発行日 2024-02-26 10:02:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク