Semantic Object-level Modeling for Robust Visual Camera Relocalization

要約

視覚的な再位置推定は、モバイル ロボットの自律的な視覚位置推定とナビゲーションにとって重要です。
CNN ベースの物体検出アルゴリズムの改善により、特に古典的な手法が失敗する視点において、視覚的再位置推定の堅牢性が大幅に強化されました。
ただし、軸を揃えたオブジェクト検出によって生成される楕円体 (二次曲面) は、オブジェクト レベルの表現の精度を制限し、視覚的再位置推定システムのパフォーマンスを低下させる可能性があります。
この論文では、オブジェクトの正確な楕円体表現のための自動オブジェクトレベルボクセルモデリングの新しい方法を提案します。
視覚的な再局在化に関しては、2D フィット楕円と 3D 正確な楕円体の投影特性を最大限に活用するために、カメラの姿勢回復のためのより良い姿勢最適化戦略を設計します。
これらのモジュールはすべて、ビジュアル SLAM システムに完全に統合されています。
実験結果は、私たちのセマンティックオブジェクトレベルマッピングとオブジェクトベースの視覚的再局在化手法が、新しい視点に対するロバスト性の観点から視覚的再局在化のパフォーマンスを大幅に向上させることを示しています。

要約(オリジナル)

Visual relocalization is crucial for autonomous visual localization and navigation of mobile robotics. Due to the improvement of CNN-based object detection algorithm, the robustness of visual relocalization is greatly enhanced especially in viewpoints where classical methods fail. However, ellipsoids (quadrics) generated by axis-aligned object detection may limit the accuracy of the object-level representation and degenerate the performance of visual relocalization system. In this paper, we propose a novel method of automatic object-level voxel modeling for accurate ellipsoidal representations of objects. As for visual relocalization, we design a better pose optimization strategy for camera pose recovery, to fully utilize the projection characteristics of 2D fitted ellipses and the 3D accurate ellipsoids. All of these modules are entirely intergrated into visual SLAM system. Experimental results show that our semantic object-level mapping and object-based visual relocalization methods significantly enhance the performance of visual relocalization in terms of robustness to new viewpoints.

arxiv情報

著者 Yifan Zhu,Lingjuan Miao,Haitao Wu,Zhiqiang Zhou,Weiyi Chen,Longwen Wu
発行日 2024-02-10 13:39:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク