要約
今日の自動運転車は、環境を認識するために多数のセンサーに依存しています。
知覚を改善したり、冗長性を生み出したりするには、センサーの相互の位置関係を知る必要があります。
Multi-LiCa を使用して、アライメントのための新しいアプローチを提案します。
較正。
追加のセンサーモダリティや初期変換入力を必要とせずに、外部マルチ LiDAR 間キャリブレーションのための自動モーションおよびターゲットレス アプローチを提案します。
我々は、コストベースのマッチング戦略と組み合わせた、粗い位置合わせのための特徴ベースのマッチングと GICP ベースの細かい位置合わせの 2 段階のプロセスを提案します。
私たちのアプローチは、単一センサーの視野間に部分的な重複がある場合、任意の数のセンサーと位置に適用できます。
私たちのパイプラインは、さまざまなセンサーのセットアップやシナリオに対してより適切に一般化されており、キャリブレーション精度においては既存のアプローチと同等かそれ以上であることを示します。
提示されたフレームワークは ROS 2 に統合されていますが、スタンドアロン アプリケーションとしても使用できます。
私たちの成果を基に構築するために、ソース コードは https://github.com/TUMFTM/Multi_LiCa から入手できます。
要約(オリジナル)
Today’s autonomous vehicles rely on a multitude of sensors to perceive their environment. To improve the perception or create redundancy, the sensor’s alignment relative to each other must be known. With Multi-LiCa, we present a novel approach for the alignment, e.g. calibration. We present an automatic motion- and targetless approach for the extrinsic multi LiDAR-to-LiDAR calibration without the need for additional sensor modalities or an initial transformation input. We propose a two-step process with feature-based matching for the coarse alignment and a GICP-based fine registration in combination with a cost-based matching strategy. Our approach can be applied to any number of sensors and positions if there is a partial overlap between the field of view of single sensors. We show that our pipeline is better generalized to different sensor setups and scenarios and is on par or better in calibration accuracy than existing approaches. The presented framework is integrated in ROS 2 but can also be used as a standalone application. To build upon our work, our source code is available at: https://github.com/TUMFTM/Multi_LiCa.
arxiv情報
著者 | Dominik Kulmer,Ilir Tahiraj,Andrii Chumak,Markus Lienkamp |
発行日 | 2025-01-19 15:56:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google