EvTTC: An Event Camera Dataset for Time-to-Collision Estimation

要約

衝突までの時間(TTC)の推定は、すべての自動緊急ブレーキ(AEB)システムの鍵である前方衝突警告(FCW)機能の中核にあります。
フレームベースのカメラを使用したソリューションの成功(Mobileyeのソリューションなど)は通常の状況で目撃されていますが、主要車両の相対速度の突然の変動や歩行者の突然の出現など、いくつかの極端なケースは、依然として処理できない重大なリスクをもたらします。
これは、フレームベースのカメラの固有のイメージング原理によるもので、隣接する露出間の時間間隔がAEBにかなりのシステム遅延を導入します。
新しいバイオ風のセンサーとしてのイベントカメラは、超高速分解能を提供し、マイクロ秒レベルで明るさの変化を非同期に報告できます。
上記の挑戦的なケースでイベントカメラの可能性を調査するために、EVTTCを提案します。これは、私たちの知る限り、高関連スピードシナリオの下でTTCタスクに焦点を当てた最初のマルチセンサーデータセットです。
EVTTCは、標準カメラとイベントカメラを使用して収集されたデータで構成され、毎日の運転と複数の衝突オブジェクトが関与するさまざまな潜在的な衝突シナリオをカバーしています。
さらに、グラウンドトゥルースTTCの計算には、LidarおよびGNSS/INS測定が提供されています。
本格的なモバイルプラットフォームでTTCアルゴリズムをテストするコストが高いことを考慮すると、実験的検証とデータ増強のための小規模なTTCテストも提供します。
テストベッドのすべてのデータと設計はオープンソースであり、ビジョンベースのTTC技術の開発を促進するベンチマークとして機能できます。

要約(オリジナル)

Time-to-Collision (TTC) estimation lies in the core of the forward collision warning (FCW) functionality, which is key to all Automatic Emergency Braking (AEB) systems. Although the success of solutions using frame-based cameras (e.g., Mobileye’s solutions) has been witnessed in normal situations, some extreme cases, such as the sudden variation in the relative speed of leading vehicles and the sudden appearance of pedestrians, still pose significant risks that cannot be handled. This is due to the inherent imaging principles of frame-based cameras, where the time interval between adjacent exposures introduces considerable system latency to AEB. Event cameras, as a novel bio-inspired sensor, offer ultra-high temporal resolution and can asynchronously report brightness changes at the microsecond level. To explore the potential of event cameras in the above-mentioned challenging cases, we propose EvTTC, which is, to the best of our knowledge, the first multi-sensor dataset focusing on TTC tasks under high-relative-speed scenarios. EvTTC consists of data collected using standard cameras and event cameras, covering various potential collision scenarios in daily driving and involving multiple collision objects. Additionally, LiDAR and GNSS/INS measurements are provided for the calculation of ground-truth TTC. Considering the high cost of testing TTC algorithms on full-scale mobile platforms, we also provide a small-scale TTC testbed for experimental validation and data augmentation. All the data and the design of the testbed are open sourced, and they can serve as a benchmark that will facilitate the development of vision-based TTC techniques.

arxiv情報

著者 Kaizhen Sun,Jinghang Li,Kuan Dai,Bangyan Liao,Wei Xiong,Yi Zhou
発行日 2025-04-23 13:49:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク