Factor Graph Fusion of Raw GNSS Sensing with IMU and Lidar for Precise Robot Localization without a Base Station

要約

正確な位置特定は、ロボットのナビゲーション システムのコア コンポーネントです。
この目的のために、全地球航法衛星システム (GNSS) は屋外で絶対測定を提供できるため、長期的なドリフトを排除できます。
ただし、GNSS データを他のセンサー データと融合することは簡単ではありません。特に、ロボットがスカイ ビューのあるエリアとないエリアの間を移動する場合はそうです。
生の GNSS 受信機データを慣性測定と、オプションで、正確でスムーズなモバイル ロボットのローカリゼーションのための LIDAR 観測と緊密に融合する堅牢なアプローチを提案します。
2 種類の GNSS ファクターを持つファクター グラフが提案されています。
第 1 に、地球上でのグローバルなローカリゼーションを可能にする疑似距離に基づく要因。
2 つ目は、搬送波の位相に基づく要因です。これにより、非常に正確な相対位置特定が可能になります。これは、他のセンシング モダリティが問題となる場合に役立ちます。
従来の差動 GNSS とは異なり、このアプローチは基地局への接続を必要としません。
公共の都市部の運転データセットでは、カメラを使用せず、慣性データと GNSS データのみを使用するアプローチにもかかわらず、ビジュアル慣性オドメトリと GNSS データを融合する最先端のアルゴリズムに匹敵する精度を実現しています。
また、森など空の視界がほとんどない環境で移動する車と四足歩行ロボットからのデータを使用して、アプローチの堅牢性を示します。
グローバル地球フレームの精度はまだ 1 ~ 2 m ですが、推定された軌道は不連続性がなく滑らかです。
また、ライダー測定を緊密に統合する方法も示します。
これは、生の GNSS 観測 (修正ではなく) と LIDAR をファクター グラフで融合した最初のシステムであると考えています。

要約(オリジナル)

Accurate localization is a core component of a robot’s navigation system. To this end, global navigation satellite systems (GNSS) can provide absolute measurements outdoors and, therefore, eliminate long-term drift. However, fusing GNSS data with other sensor data is not trivial, especially when a robot moves between areas with and without sky view. We propose a robust approach that tightly fuses raw GNSS receiver data with inertial measurements and, optionally, lidar observations for precise and smooth mobile robot localization. A factor graph with two types of GNSS factors is proposed. First, factors based on pseudoranges, which allow for global localization on Earth. Second, factors based on carrier phases, which enable highly accurate relative localization, which is useful when other sensing modalities are challenged. Unlike traditional differential GNSS, this approach does not require a connection to a base station. On a public urban driving dataset, our approach achieves accuracy comparable to a state-of-the-art algorithm that fuses visual inertial odometry with GNSS data — despite our approach not using the camera, just inertial and GNSS data. We also demonstrate the robustness of our approach using data from a car and a quadruped robot moving in environments with little sky visibility, such as a forest. The accuracy in the global Earth frame is still 1-2 m, while the estimated trajectories are discontinuity-free and smooth. We also show how lidar measurements can be tightly integrated. We believe this is the first system that fuses raw GNSS observations (as opposed to fixes) with lidar in a factor graph.

arxiv情報

著者 Jonas Beuchert,Marco Camurri,Maurice Fallon
発行日 2023-02-28 22:37:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク