Roadside Lidar Vehicle Detection and Tracking Using Range And Intensity Background Subtraction

要約

本論文では、2つの教師なし学習アルゴリズムの組み合わせによる路側LiDAR物体検出のソリューションを開発した。まず、3次元点群を球座標に変換し、ハッシュ関数を用いて標高-方位角行列に充填する。その後、LiDARの生データを新しいデータ構造に並べ替え、レンジ、アジマス、強度の情報を格納する。次に、動的モード分解法を適用し、強度チャンネルパターン認識に基づいて、LiDARデータを低ランクの背景と疎な前景に分解する。Coarse Fine Triangle Algorithm (CFTA) は、レンジ情報に従って、移動ターゲットを静的背景から分離するための分割値を自動的に見つけます。強度およびレンジバックグラウンドの減算後、前景の移動オブジェクトは密度ベースの検出器を用いて検出され、トラッキングのために状態空間モデルにエンコードされます。提案するソリューションの出力には、多くのモビリティと安全性のアプリケーションを可能にする車両軌道が含まれる。本手法は経路と点の両レベルで検証され、最先端技術を凌駕する性能を示した。散乱した離散的な点群に対して直接処理を行う従来の手法とは対照的に、動的分類法は、3次元計測データの洗練されていない線形関係を確立することができ、これは我々がしばしば望む空間-時間構造を捉えることができる。

要約(オリジナル)

In this paper, we developed the solution of roadside LiDAR object detection using a combination of two unsupervised learning algorithms. The 3D point clouds are firstly converted into spherical coordinates and filled into the elevation-azimuth matrix using a hash function. After that, the raw LiDAR data were rearranged into new data structures to store the information of range, azimuth, and intensity. Then, the Dynamic Mode Decomposition method is applied to decompose the LiDAR data into low-rank backgrounds and sparse foregrounds based on intensity channel pattern recognition. The Coarse Fine Triangle Algorithm (CFTA) automatically finds the dividing value to separate the moving targets from static background according to range information. After intensity and range background subtraction, the foreground moving objects will be detected using a density-based detector and encoded into the state-space model for tracking. The output of the proposed solution includes vehicle trajectories that can enable many mobility and safety applications. The method was validated at both path and point levels and outperformed the state-of-the-art. In contrast to the previous methods that process directly on the scattered and discrete point clouds, the dynamic classification method can establish the less sophisticated linear relationship of the 3D measurement data, which captures the spatial-temporal structure that we often desire.

arxiv情報

著者 Tianya Zhang,Peter J. Jin
発行日 2022-06-08 01:54:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, eess.SP パーマリンク