Imaging radar and LiDAR image translation for 3-DOF extrinsic calibration

要約

ロボット工学の分野において、使用されるさまざまなセンサーを最大限に活用するには、センサー データの統合が重要です。
この統合の重要な側面の 1 つは、各センサー間の相対変換などの外部校正パラメーターを決定することです。
レーダーや LiDAR などの補完的なセンサー間のデータ融合を使用すると、特に正確な深度データが必要な過酷な環境で大きな利点が得られます。
ただし、レーダー センサー データに含まれるノイズにより、外部キャリブレーションの推定が困難になる場合があります。
この問題に対処するために、画像から画像への変換方法として CycleGAN を利用して、レーダーおよび LiDAR センサーの外部キャリブレーションのための新しいフレームワークを提案します。
私たちが提案する方法では、レーダー鳥瞰図画像を LiDAR スタイルの画像に変換して 3-DOF 外部パラメータを推定します。
回転センサーに一般的に存在するローリング シャッター効果に対処するために、イメージ レジストレーション技術の使用と、センサー オドメトリおよび B スプライン補間に基づくデスキューが採用されています。
私たちの方法は、MulRan データセットを使用したフィルターベースの方法と比較して、外部キャリブレーションの顕著な改善を示しています。

要約(オリジナル)

The integration of sensor data is crucial in the field of robotics to take full advantage of the various sensors employed. One critical aspect of this integration is determining the extrinsic calibration parameters, such as the relative transformation, between each sensor. The use of data fusion between complementary sensors, such as radar and LiDAR, can provide significant benefits, particularly in harsh environments where accurate depth data is required. However, noise included in radar sensor data can make the estimation of extrinsic calibration challenging. To address this issue, we present a novel framework for the extrinsic calibration of radar and LiDAR sensors, utilizing CycleGAN as amethod of image-to-image translation. Our proposed method employs translating radar bird-eye-view images into LiDAR-style images to estimate the 3-DOF extrinsic parameters. The use of image registration techniques, as well as deskewing based on sensor odometry and B-spline interpolation, is employed to address the rolling shutter effect commonly present in spinning sensors. Our method demonstrates a notable improvement in extrinsic calibration compared to filter-based methods using the MulRan dataset.

arxiv情報

著者 Sangwoo Jung,Hyesu Jang,Minwoo Jung,Ayoung Kim,Myung-Hwan Jeon
発行日 2024-03-27 08:49:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク