要約
イベントベースのカメラは、その高い時間解像度と低消費電力により、さまざまなアプリケーションでますます利用されています。
ただし、このようなカメラを複数配置する場合、根本的な課題が発生します。カメラは独立した時間系で動作するため、時間的なずれが生じます。
このずれにより、下流のアプリケーションのパフォーマンスが大幅に低下する可能性があります。
従来のソリューションはハードウェアベースの同期に依存することが多く、互換性の制限に直面しており、長距離のセットアップには非現実的です。
これらの課題に対処するために、共有視野内のオブジェクトの動きを利用して、複数のイベントベースのカメラ間でミリ秒レベルの同期を実現する新しいアルゴリズムを提案します。
私たちの方法では、外部パラメータも同時に推定します。
シミュレーションと現実世界の屋内/屋外シナリオの両方でアプローチを検証し、同期の成功と外部パラメーターの正確な推定を実証します。
要約(オリジナル)
Event-based cameras are increasingly utilized in various applications, owing to their high temporal resolution and low power consumption. However, a fundamental challenge arises when deploying multiple such cameras: they operate on independent time systems, leading to temporal misalignment. This misalignment can significantly degrade performance in downstream applications. Traditional solutions, which often rely on hardware-based synchronization, face limitations in compatibility and are impractical for long-distance setups. To address these challenges, we propose a novel algorithm that exploits the motion of objects in the shared field of view to achieve millisecond-level synchronization among multiple event-based cameras. Our method also concurrently estimates extrinsic parameters. We validate our approach in both simulated and real-world indoor/outdoor scenarios, demonstrating successful synchronization and accurate extrinsic parameters estimation.
arxiv情報
著者 | Wanli Xing,Shijie Lin,Guangze Zheng,Yanjun Du,Jia Pan |
発行日 | 2023-09-29 05:22:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google