要約
この論文では、特にボクセルベースの方法において、LIDAR スキャン マッチングの精度を制限する誤差の原因を定量化します。
LIDAR スキャン マッチングは、推測航法 (LIDAR オドメトリとも呼ばれる) とマッピングで使用され、点群のペアを最適に位置合わせする回転と平行移動を計算します。
パースペクティブ エラーは、シーンをさまざまな角度から見た場合に発生し、視点ごとに異なるサーフェスが表示されたり、遮られたりします。
データで観察される遠近法の異常を説明するために、この論文では、都市景観を表す 2 つのオブジェクト (円筒柱と二重壁のコーナー) の遠近法誤差をモデル化します。
オブジェクトごとに、ボクセルベースの LIDAR スキャン マッチングのための透視誤差の分析モデルを提供します。
次に、LIDAR を搭載した車両がこれらの物体を通過するときに遠近法誤差がどのように蓄積されるかを分析します。
要約(オリジナル)
This paper quantifies an error source that limits the accuracy of lidar scan matching, particularly for voxel-based methods. Lidar scan matching, which is used in dead reckoning (also known as lidar odometry) and mapping, computes the rotation and translation that best align a pair of point clouds. Perspective errors occur when a scene is viewed from different angles, with different surfaces becoming visible or occluded from each viewpoint. To explain perspective anomalies observed in data, this paper models perspective errors for two objects representative of urban landscapes: a cylindrical column and a dual-wall corner. For each object, we provide an analytical model of the perspective error for voxel-based lidar scan matching. We then analyze how perspective errors accumulate as a lidar-equipped vehicle moves past these objects.
arxiv情報
著者 | Jason Rife,Matthew McDermott |
発行日 | 2024-01-24 12:20:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google