要約
近年の自律走行技術の進歩やLiDARの低価格化に伴い、マルチモーダルセンサーシステムの利用が増加しています。しかし、様々なセンサーが提供する情報を活用するためには、それらを正確に較正する必要がある。我々は、コンピュータグラフィックスと陰的ボリュームシーン表現の最近の進歩を利用して、マルチセンサの空間的・時間的キャリブレーションの問題に取り組んでいる。陰的モデル最適化の新しい定式化により、放射測定と幾何学的測定に基づくシーン表現とともに、校正パラメータを共同で最適化することができるようになりました。本手法は、制御されていない非構造化都市環境で撮影されたデータから正確かつ堅牢なキャリブレーションを可能にし、既存のキャリブレーションソリューションよりも拡張性を高めています。私たちは、自律走行シナリオで一般的に遭遇する都市のシーンで、私たちの方法の精度とロバスト性を実証します。
要約(オリジナル)
With the recent advances in autonomous driving and the decreasing cost of LiDARs, the use of multi-modal sensor systems is on the rise. However, in order to make use of the information provided by a variety of complimentary sensors, it is necessary to accurately calibrate them. We take advantage of recent advances in computer graphics and implicit volumetric scene representation to tackle the problem of multi-sensor spatial and temporal calibration. Thanks to a new formulation of the implicit model optimization, we are able to jointly optimize calibration parameters along with scene representation based on radiometric and geometric measurements. Our method enables accurate and robust calibration from data captured in uncontrolled and unstructured urban environments, making our solution more scalable than existing calibration solutions. We demonstrate the accuracy and robustness of our method in urban scenes typically encountered in autonomous driving scenarios.
arxiv情報
著者 | Quentin Herau,Nathan Piasco,Moussab Bennehar,Luis Roldão,Dzmitry Tsishkou,Cyrille Migniot,Pascal Vasseur,Cédric Demonceaux |
発行日 | 2023-03-07 13:31:52+00:00 |
arxivサイト | arxiv_id(pdf) |