An Efficient Probabilistic Solution to Mapping Errors in LiDAR-Camera Fusion for Autonomous Vehicles

要約

LiDAR とカメラの融合は、現在の自動運転システムの認識システムの中核プロセスの 1 つです。
一般的なセンサー フュージョン プロセスには、システム キャリブレーション後の座標変換操作のリストが含まれます。
融合精度を向上させるためにかなりの量の研究が行われてきましたが、実際には、システム同期オフセット、車両の振動、ターゲットの小さいサイズ、および速い相対移動速度に関連した固有のデータ マッピング エラーが依然として存在します。
さらに、融合精度を向上させるためのアルゴリズムがますます複雑になると、オンボードの計算リソースが過負荷になり、実際の実装が制限される可能性があります。
この研究では、シーン再構築におけるこれらの固有のマッピング エラーを軽減するための、新規で低コストの確率論的 LiDAR とカメラの融合方法を提案します。
KL ダイバージェンスを使用して形状の類似性を計算し、RANSAC 回帰ベースの軌道スムーサーを適用することで、物体の位置特定と距離推定における LiDAR カメラのマッピング誤差の影響が最小限に抑えられます。
計画された実験は、提案された戦略の堅牢性と有効性を証明するために実行されます。

要約(オリジナル)

LiDAR-camera fusion is one of the core processes for the perception system of current automated driving systems. The typical sensor fusion process includes a list of coordinate transformation operations following system calibration. Although a significant amount of research has been done to improve the fusion accuracy, there are still inherent data mapping errors in practice related to system synchronization offsets, vehicle vibrations, the small size of the target, and fast relative moving speeds. Moreover, more and more complicated algorithms to improve fusion accuracy can overwhelm the onboard computational resources, limiting the actual implementation. This study proposes a novel and low-cost probabilistic LiDAR-Camera fusion method to alleviate these inherent mapping errors in scene reconstruction. By calculating shape similarity using KL-divergence and applying RANSAC-regression-based trajectory smoother, the effects of LiDAR-camera mapping errors are minimized in object localization and distance estimation. Designed experiments are conducted to prove the robustness and effectiveness of the proposed strategy.

arxiv情報

著者 Dan Shen,Zhengming Zhang,Renran Tian,Yaobin Chen,Rini Sherony
発行日 2023-11-08 00:43:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO, cs.SY, eess.SY パーマリンク