Real-Time Truly-Coupled Lidar-Inertial Motion Correction and Spatiotemporal Dynamic Object Detection

要約

過去 10 年間にわたり、ライダーは周囲の正確な幾何学的情報を 3D スキャンの形式で提供できるため、ロボットの状態推定と認識の基礎となってきました。
残念ながら、最近の LIDAR のほとんどは環境のスナップショットを取得せず、一定期間 (通常は約 100 ミリ秒) にわたって環境をスイープします。
このようなローリング シャッターのようなメカニズムにより、収集された LIDAR スキャンに動きの歪みが生じ、下流の認識アプリケーションが妨げられます。
この論文では、LIDAR と慣性測定ユニット (IMU) データを密結合することにより、LIDAR データの動きの歪みを補正する新しい方法を紹介します。
この研究の動機は、LIDAR に基づくマップフリーの動的物体検出です。
提案された LIDAR データの歪みを解消する方法は、IMU 測定値の連続事前積分に依存しており、11 個の離散状態変数 (バイアス、初速度、重力方向) のみを使用してセンサーの連続 6-DoF 軌道をパラメータ化できます。
歪みの解消は、非線形最小二乗公式における点から線および点から面の残差の特徴ベースの距離最小化で構成されます。
提案されたパイプラインは、短い時間ウィンドウにわたる歪みのない幾何学的データが与えられると、各 LIDAR ポイントの時空間法線ベクトルを計算します。
法線の時間成分は対応する点の速度の代用となるため、グローバル参照フレームに登録する必要がなく、学習不要の動的なオブジェクト分類が可能になります。
公開データセットを使用して、提案された方法とそのさまざまなコンポーネントの健全性を実証し、それらを最先端の LIDAR 慣性状態推定および動的物体検出アルゴリズムと比較します。

要約(オリジナル)

Over the past decade, lidars have become a cornerstone of robotics state estimation and perception thanks to their ability to provide accurate geometric information about their surroundings in the form of 3D scans. Unfortunately, most of nowadays lidars do not take snapshots of the environment but sweep the environment over a period of time (typically around 100 ms). Such a rolling-shutter-like mechanism introduces motion distortion into the collected lidar scan, thus hindering downstream perception applications. In this paper, we present a novel method for motion distortion correction of lidar data by tightly coupling lidar with Inertial Measurement Unit (IMU) data. The motivation of this work is a map-free dynamic object detection based on lidar. The proposed lidar data undistortion method relies on continuous preintegrated of IMU measurements that allow parameterising the sensors’ continuous 6-DoF trajectory using solely eleven discrete state variables (biases, initial velocity, and gravity direction). The undistortion consists of feature-based distance minimisation of point-to-line and point-to-plane residuals in a non-linear least-square formulation. Given undistorted geometric data over a short temporal window, the proposed pipeline computes the spatiotemporal normal vector of each of the lidar points. The temporal component of the normals is a proxy for the corresponding point’s velocity, therefore allowing for learning-free dynamic object classification without the need for registration in a global reference frame. We demonstrate the soundness of the proposed method and its different components using public datasets and compare them with state-of-the-art lidar-inertial state estimation and dynamic object detection algorithms.

arxiv情報

著者 Cedric Le Gentil,Raphael Falque,Teresa Vidal-Calleja
発行日 2024-10-07 16:09:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク