要約
衝突までの時間 (TTC) の推定は、前方衝突警報 (FCW) 機能の中核にあり、すべての自動緊急ブレーキ (AEB) システムの鍵となります。
フレームベースのカメラを使用したソリューション (Mobileye のソリューションなど) の成功は通常の状況でも目撃されていますが、先行車両の相対速度の突然の変化や歩行者の突然の出現など、いくつかの極端なケースでは依然として重大なリスクが生じます。
それは処理できません。
これは、フレームベースのカメラの固有のイメージング原理によるもので、隣接する露光間の時間間隔により、AEB に対してかなりのシステム遅延が発生します。
イベント カメラは、生物からインスピレーションを得た新しいセンサーであり、超高時間分解能を提供し、マイクロ秒レベルで明るさの変化を非同期に報告できます。
前述の困難なケースにおけるイベント カメラの可能性を探るために、私たちは EvTTC を提案します。これは、私たちの知る限り、高速相対速度シナリオでの TTC タスクに焦点を当てた最初のマルチセンサー データセットです。
EvTTC は、標準カメラとイベント カメラを使用して収集されたデータで構成されており、日常の運転や複数の衝突物体が関与するさまざまな潜在的な衝突シナリオをカバーしています。
さらに、グラウンドトゥルース TTC の計算のために、LiDAR および GNSS/INS 測定が提供されます。
本格的なモバイル プラットフォームで TTC アルゴリズムをテストするコストが高いことを考慮して、実験的な検証とデータ拡張のための小規模な TTC テストベッドも提供しています。
すべてのデータとテストベッドの設計はオープンソースであり、ビジョンベースの TTC 技術の開発を促進するベンチマークとして機能します。
要約(オリジナル)
Time-to-Collision (TTC) estimation lies in the core of the forward collision warning (FCW) functionality, which is key to all Automatic Emergency Braking (AEB) systems. Although the success of solutions using frame-based cameras (e.g., Mobileye’s solutions) has been witnessed in normal situations, some extreme cases, such as the sudden variation in the relative speed of leading vehicles and the sudden appearance of pedestrians, still pose significant risks that cannot be handled. This is due to the inherent imaging principles of frame-based cameras, where the time interval between adjacent exposures introduces considerable system latency to AEB. Event cameras, as a novel bio-inspired sensor, offer ultra-high temporal resolution and can asynchronously report brightness changes at the microsecond level. To explore the potential of event cameras in the above-mentioned challenging cases, we propose EvTTC, which is, to the best of our knowledge, the first multi-sensor dataset focusing on TTC tasks under high-relative-speed scenarios. EvTTC consists of data collected using standard cameras and event cameras, covering various potential collision scenarios in daily driving and involving multiple collision objects. Additionally, LiDAR and GNSS/INS measurements are provided for the calculation of ground-truth TTC. Considering the high cost of testing TTC algorithms on full-scale mobile platforms, we also provide a small-scale TTC testbed for experimental validation and data augmentation. All the data and the design of the testbed are open sourced, and they can serve as a benchmark that will facilitate the development of vision-based TTC techniques.
arxiv情報
著者 | Kaizhen Sun,Jinghang Li,Kuan Dai,Bangyan Liao,Wei Xiong,Yi Zhou |
発行日 | 2024-12-06 14:08:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google