要約
自動運転車 (AV) は、悪条件下での動作時の堅牢性を確保するために、複数のセンサーやセンシング方式に依存することがよくあります。
レーダーとカメラは組み合わせて使用するのが一般的な選択肢です。
レーダーの測定値はカメラの画像に比べてまばらですが、レーダーのスキャンは霧、雨、雪を通過することができます。
通常、両方のセンサーからのデータは、下流の認識タスクで使用される前に統合されます。
ただし、正確なセンサー フュージョンは、センサー間の空間変換と、センサーの測定時間に存在する時間的なずれに関する知識に依存します。
AV のライフサイクル中に、これらの校正パラメータが変化する可能性があるため、信頼性の高い長期動作を保証するには、その場で時空間校正を実行できる機能が不可欠です。
最先端の 3D レーダー カメラの時空間校正アルゴリズムには、現場では容易に入手できない特注の校正ターゲットが必要です。
この論文では、特殊なインフラストラクチャなしで動作できる \emph{targetless} 時空間校正のアルゴリズムについて説明します。
私たちのアプローチは、固定された外部基準フレームに対するレーダー ユニット自身の自我速度を測定するレーダー ユニットの機能を利用します。
時空間校正問題の識別可能性を分析し、校正に必要な動作を決定します。
一連のシミュレーション研究を通じて、測定ノイズに対するアルゴリズムの感度を特徴付けます。
最後に、ハンドヘルド センサー リグと車載センサー アレイを含む 3 つの実際のシステムの正確なキャリブレーションを示します。
私たちの結果は、任意のインフラストラクチャのない環境でキャリブレーションを行いながら、既存のターゲットベースの手法のパフォーマンスに匹敵することができることを示しています。
要約(オリジナル)
Autonomous vehicles (AVs) often depend on multiple sensors and sensing modalities to impart a measure of robustness when operating in adverse conditions. Radars and cameras are popular choices for use in combination; although radar measurements are sparse in comparison to camera images, radar scans are able to penetrate fog, rain, and snow. Data from both sensors are typically fused prior to use in downstream perception tasks. However, accurate sensor fusion depends upon knowledge of the spatial transform between the sensors and any temporal misalignment that exists in their measurement times. During the life cycle of an AV, these calibration parameters may change, so the ability to perform in-situ spatiotemporal calibration is essential to ensure reliable long-term operation. State-of-the-art 3D radar-camera spatiotemporal calibration algorithms require bespoke calibration targets that are not readily available in the field. In this paper, we describe an algorithm for \emph{targetless} spatiotemporal calibration that is able to operate without specialized infrastructure. Our approach leverages the ability of the radar unit to measure its own ego-velocity relative to a fixed, external reference frame. We analyze the identifiability of the spatiotemporal calibration problem and determine the motions necessary for calibration. Through a series of simulation studies, we characterize the sensitivity of our algorithm to measurement noise. Finally, we demonstrate accurate calibration for three real-world systems, including a handheld sensor rig and a vehicle-mounted sensor array. Our results show that we are able to match the performance of an existing, target-based method, while calibrating in arbitrary, infrastructure-free environments.
arxiv情報
著者 | Emmett Wise,Qilong Cheng,Jonathan Kelly |
発行日 | 2023-08-01 15:02:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google