LIO-PPF: Fast LiDAR-Inertial Odometry via Incremental Plane Pre-Fitting and Skeleton Tracking

要約

インテリジェントな移動ロボットの重要なインフラストラクチャとして、LiDAR-慣性オドメトリ(LIO)は、LiDARスキャンを追跡することにより、状態推定の基本的な機能を提供します。高精度のトラッキングには、一般的に点間距離を最小化するkNN探索が使用されます。しかし、そのためのコストは、大規模なローカルマップを維持し、各ポイントに対してkNN平面フィットを実行することである。本研究では、これらの不要なコストを省くことで、LIOの時間と空間の複雑さを低減する。技術的には、3Dシーンの基本骨格を追跡する平面プリフィット(PPF)パイプラインを設計する。PPFでは、平面は各スキャン、ましてや各ポイントに対して個別にフィッティングされるのではなく、シーンの「流れ」に応じてインクリメンタルに更新される。kNNとは異なり、PPFは反復的主成分分析(iPCA)精密化により、ノイズや非厳密な平面に対してよりロバストである。さらに、単純かつ効果的なサンドイッチ層を導入することで、誤った点と面の一致を排除する。本手法は、5つのオープンデータセットにわたる合計22配列で広範囲にテストされ、3つの既存の最先端LIOシステムで評価された。対照的に、LIO-PPFは、同じ精度を維持しながら、最大4倍の高速残差計算と1.92倍の全体的なFPSを達成するために、元のローカルマップサイズのわずか36%を消費することができます。我々の実装は、https://github.com/xingyuuchen/LIO-PPF で完全にオープンソース化されています。

要約(オリジナル)

As a crucial infrastructure of intelligent mobile robots, LiDAR-Inertial odometry (LIO) provides the basic capability of state estimation by tracking LiDAR scans. The high-accuracy tracking generally involves the kNN search, which is used with minimizing the point-to-plane distance. The cost for this, however, is maintaining a large local map and performing kNN plane fit for each point. In this work, we reduce both time and space complexity of LIO by saving these unnecessary costs. Technically, we design a plane pre-fitting (PPF) pipeline to track the basic skeleton of the 3D scene. In PPF, planes are not fitted individually for each scan, let alone for each point, but are updated incrementally as the scene ‘flows’. Unlike kNN, the PPF is more robust to noisy and non-strict planes with our iterative Principal Component Analyse (iPCA) refinement. Moreover, a simple yet effective sandwich layer is introduced to eliminate false point-to-plane matches. Our method was extensively tested on a total number of 22 sequences across 5 open datasets, and evaluated in 3 existing state-of-the-art LIO systems. By contrast, LIO-PPF can consume only 36% of the original local map size to achieve up to 4x faster residual computing and 1.92x overall FPS, while maintaining the same level of accuracy. We fully open source our implementation at https://github.com/xingyuuchen/LIO-PPF.

arxiv情報

著者 Xingyu Chen,Peixi Wu,Ge Li,Thomas H. Li
発行日 2023-08-03 14:56:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.RO パーマリンク