Distance Estimation in Outdoor Driving Environments Using Phase-only Correlation Method with Event Cameras

要約

自律運転の採用が拡大するにつれて、センサー技術の進歩は、安全性と信頼できる運用を確保するために重要です。
LIDAR、レーダー、カメラなどの複数のセンサーを組み合わせたセンサー融合技術は効果的であることが証明されていますが、複数のデバイスの統合により、ハードウェアの複雑さとコストの両方が増加します。
したがって、複数の役割を実行できる単一のセンサーを開発することは、費用対効果の高いスケーラブルな自律駆動システムには非常に望ましいものです。
イベントカメラは、高ダイナミックレンジ、低レイテンシ、高時間分解能など、独自の特性により、有望なソリューションとして浮上しています。
これらの機能により、低光やバックライトの環境など、挑戦的な照明条件でうまく機能することができます。
さらに、細粒のモーションイベントを検出する能力により、歩行者の検出や目に見える光を介した車両間通信などの用途に適しています。
この研究では、単眼イベントカメラと道端のLEDバーを使用して、距離推定の方法を提示します。
イベントデータに位相のみの相関手法を適用することにより、2つの光源間の空間シフトを検出する際にサブピクセルの精度を達成します。
これにより、ステレオビジョンを必要とせずに、正確な三角測量ベースの距離推定が可能になります。
屋外での運転シナリオで行われたフィールド実験は、提案されたアプローチが20〜60メートルの距離で0.5メートル未満の誤差で90%以上の成功率を達成することを示しました。
将来の作業には、LEDを装備したスマートポールなどのインフラストラクチャを活用することにより、この方法をフルポジション推定に拡張し、イベントカメラベースの車両がリアルタイムで自分の位置を決定できるようにすることが含まれます。
この進歩は、ナビゲーションの精度、ルートの最適化、インテリジェントな輸送システムへの統合を大幅に向上させることができます。

要約(オリジナル)

With the growing adoption of autonomous driving, the advancement of sensor technology is crucial for ensuring safety and reliable operation. Sensor fusion techniques that combine multiple sensors such as LiDAR, radar, and cameras have proven effective, but the integration of multiple devices increases both hardware complexity and cost. Therefore, developing a single sensor capable of performing multiple roles is highly desirable for cost-efficient and scalable autonomous driving systems. Event cameras have emerged as a promising solution due to their unique characteristics, including high dynamic range, low latency, and high temporal resolution. These features enable them to perform well in challenging lighting conditions, such as low-light or backlit environments. Moreover, their ability to detect fine-grained motion events makes them suitable for applications like pedestrian detection and vehicle-to-infrastructure communication via visible light. In this study, we present a method for distance estimation using a monocular event camera and a roadside LED bar. By applying a phase-only correlation technique to the event data, we achieve sub-pixel precision in detecting the spatial shift between two light sources. This enables accurate triangulation-based distance estimation without requiring stereo vision. Field experiments conducted in outdoor driving scenarios demonstrated that the proposed approach achieves over 90% success rate with less than 0.5-meter error for distances ranging from 20 to 60 meters. Future work includes extending this method to full position estimation by leveraging infrastructure such as smart poles equipped with LEDs, enabling event-camera-based vehicles to determine their own position in real time. This advancement could significantly enhance navigation accuracy, route optimization, and integration into intelligent transportation systems.

arxiv情報

著者 Masataka Kobayashi,Shintaro Shiba,Quan Kong,Norimasa Kobori,Tsukasa Shimizu,Shan Lu,Takaya Yamazato
発行日 2025-05-23 07:44:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, eess.IV, I.2.10 パーマリンク