LF-VISLAM: A SLAM Framework for Large Field-of-View Cameras with Negative Imaging Plane on Mobile Agents

要約

同時位置特定とマッピング (SLAM) は、自動運転とロボット工学の分野で重要な側面となっています。
視覚的 SLAM の重要なコンポーネントの 1 つはカメラの視野 (FoV) です。これは、FoV が大きいほど、より広範囲の周囲の要素や特徴を認識できるためです。
ただし、カメラの FoV が負の半平面に達すると、[u,v,1]^T を使用して画像の特徴点を表現する従来の方法は無効になります。
パノラマ FoV はループ クロージャに有利ですが、既存の方法ではループ クロージャ フレームを簡単に一致させることができない大きな姿勢角の差では、その利点を実現するのは容易ではありません。
広い視野のパノラマ データのループ クロージャにはさらに多数の外れ値が含まれるため、従来の外れ値除去方法は直接適用できません。
これらの問題に対処するために、ループ クロージャを備えた非常に大きな FoV を持つカメラ用の視覚慣性 SLAM フレームワークである LF-VISLAM を提案します。
負の半平面上でも特徴点を効果的に表現するために、単位長さの 3 次元ベクトルが導入されています。
SLAM システムの姿勢情報は、ループ クロージャーの特徴点検出をガイドするために利用されます。
さらに、単位長表現に基づく新しい外れ値除去方法がループ クロージャ モジュールに統合されています。
PALVIO データセットは、全 FoV が 360{\deg}x(40{\deg}~120{\deg}) のパノラマ環状レンズ (PAL) システムと、視覚慣性オドメトリ用の慣性計測ユニット (IMU) を使用して収集します。
(VIO) パノラマ SLAM データセットの不足に対処します。
確立された PALVIO と公開データセットの実験では、提案された LF-VISLAM が最先端の SLAM 手法よりも優れていることが示されています。
私たちのコードは https://github.com/flysoaryun/LF-VISLAM でオープンソース化されます。

要約(オリジナル)

Simultaneous Localization And Mapping (SLAM) has become a crucial aspect in the fields of autonomous driving and robotics. One crucial component of visual SLAM is the Field-of-View (FoV) of the camera, as a larger FoV allows for a wider range of surrounding elements and features to be perceived. However, when the FoV of the camera reaches the negative half-plane, traditional methods for representing image feature points using [u,v,1]^T become ineffective. While the panoramic FoV is advantageous for loop closure, its benefits are not easily realized under large-attitude-angle differences where loop-closure frames cannot be easily matched by existing methods. As loop closure on wide-FoV panoramic data further comes with a large number of outliers, traditional outlier rejection methods are not directly applicable. To address these issues, we propose LF-VISLAM, a Visual Inertial SLAM framework for cameras with extremely Large FoV with loop closure. A three-dimensional vector with unit length is introduced to effectively represent feature points even on the negative half-plane. The attitude information of the SLAM system is leveraged to guide the feature point detection of the loop closure. Additionally, a new outlier rejection method based on the unit length representation is integrated into the loop closure module. We collect the PALVIO dataset using a Panoramic Annular Lens (PAL) system with an entire FoV of 360{\deg}x(40{\deg}~120{\deg}) and an Inertial Measurement Unit (IMU) for Visual Inertial Odometry (VIO) to address the lack of panoramic SLAM datasets. Experiments on the established PALVIO and public datasets show that the proposed LF-VISLAM outperforms state-of-the-art SLAM methods. Our code will be open-sourced at https://github.com/flysoaryun/LF-VISLAM.

arxiv情報

著者 Ze Wang,Kailun Yang,Hao Shi,Peng Li,Fei Gao,Jian Bai,Kaiwei Wang
発行日 2023-10-12 03:09:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク