要約
ニューロモルフィック技術が成熟するにつれて、ロボット工学や自律走行車システムへの応用が活発な研究分野になっています。
特に、イベント カメラは、低電力で遅延が要求されるアプリケーションにおいて、フレームベースのカメラに代わる有力な選択肢として浮上しています。
認識タスクでイベント カメラを LIDAR などの主要なセンサーと一緒に動作できるようにするために、イベント カメラと LIDAR の間の直接的で一時的に分離された外部キャリブレーション方法を提案します。
イベント カメラの高ダイナミック レンジ、高時間分解能、および低レイテンシ動作を利用して、ライダー レーザー リターンを直接登録し、情報ベースの相関方法を使用して 2 つのセンサー間の 6-DoF 外部キャリブレーションを最適化できます。
このホワイト ペーパーでは、イベント カメラと LIDAR 間の最初の直接キャリブレーション方法を紹介し、フレームベースのカメラ仲介および/または高精度の手測定への依存を取り除きます。
要約(オリジナル)
As neuromorphic technology is maturing, its application to robotics and autonomous vehicle systems has become an area of active research. In particular, event cameras have emerged as a compelling alternative to frame-based cameras in low-power and latency-demanding applications. To enable event cameras to operate alongside staple sensors like lidar in perception tasks, we propose a direct, temporally-decoupled extrinsic calibration method between event cameras and lidars. The high dynamic range, high temporal resolution, and low-latency operation of event cameras are exploited to directly register lidar laser returns, allowing information-based correlation methods to optimize for the 6-DoF extrinsic calibration between the two sensors. This paper presents the first direct calibration method between event cameras and lidars, removing dependencies on frame-based camera intermediaries and/or highly-accurate hand measurements.
arxiv情報
著者 | Kevin Ta,David Bruggemann,Tim Brödermann,Christos Sakaridis,Luc Van Gool |
発行日 | 2022-09-26 15:21:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google