High and Low Resolution Tradeoffs in Roadside Multimodal Sensing

要約

インテリジェントな交通アプリケーション向けの路側センシングを設計するには、特に高解像度センサーと低解像度センサーのどちらかを選択する場合、コストとパフォーマンスのバランスをとる必要があります。
センサーの異質性により、トレードオフは困難であり、センサーが異なれば物理的原理が異なるため、独自のデータ モダリティが生成されます。
高解像度の LiDAR は詳細な点群を提供し、4D ミリ波レーダーは、提供するデータがまばらであるにもかかわらず、移動パターンに基づいて物体を区別するのに役立つ速度情報を提供します。
特に車両と交通弱者 (VRU) の両方を認識する際に、空間解像度の低下がセンサーの豊富な情報によって補えるかどうかを評価するために、3D オブジェクト検出用のマルチモーダル データを融合する Residual Fusion Net (ResFusionNet) を提案します。
これにより、さまざまなモダリティにわたる空間解像度と情報の豊富さの間の定量化可能なトレードオフが可能になります。
さらに、環境または人間関連の要因の影響を受けるセンサーの可視性の不確実性を管理するために、確率モデリングを利用したセンサー配置アルゴリズムを導入します。
実世界のテストベッドでのシミュレーション支援による事前評価を通じて、速度エンコードされたレーダーと LiDAR を組み合わせた場合、VRU の検出がわずかに向上することがわかりました。歩行者では平均 16.7%、自転車では 11% でした。
LiDAR のみの構成に。
さらに、300 回の実行による実験結果では、不確実性要因によりセンサー カバレッジの最大損失が 11.5%、平均で 5.25% であることが明らかになりました。
これらの発見は、空間分解能は低いが情報量が豊富なセンサーを使用して、交通弱者に対する検出機能を強化できる可能性を強調するとともに、実際のアプリケーションでセンサーをトレードオフする際には、センサーモダリティの異質性、交通参加者の多様性、運用の不確実性を徹底的に評価する必要性を強調しています。

要約(オリジナル)

Designing roadside sensing for intelligent transportation applications requires balancing cost and performance,especially when choosing between high and low-resolution sensors. The tradeoff is challenging due to sensor heterogeneity,where different sensors produce unique data modalities due to varying physical principles. High-resolution LiDAR offers detailed point cloud, while 4D millimeter-wave radar, despite providing sparser data, delivers velocity information useful for distinguishing objects based on movement patterns. To assess whether reductions in spatial resolution can be compensated by the informational richness of sensors, particularly in recognizing both vehicles and vulnerable road users (VRUs), we propose Residual Fusion Net (ResFusionNet) to fuse multimodal data for 3D object detection. This enables a quantifiable tradeoff between spatial resolution and information richness across different modalities. Furthermore, we introduce a sensor placement algorithm utilizing probabilistic modeling to manage uncertainties in sensor visibility influenced by environmental or human-related factors. Through simulation-assisted ex-ante evaluation on a real-world testbed, our findings show marked marginal gains in detecting VRUs–an average of 16.7% for pedestrians and 11% for cyclists–when merging velocity-encoded radar with LiDAR, compared to LiDAR only configurations. Additionally, experimental results from 300 runs reveal a maximum loss of 11.5% and a average of 5.25% in sensor coverage due to uncertainty factors. These findings underscore the potential of using low spatial resolution but information-rich sensors to enhance detection capabilities for vulnerable road users while highlighting the necessity of thoroughly evaluating sensor modality heterogeneity, traffic participant diversity, and operational uncertainties when making sensor tradeoffs in practical applications.

arxiv情報

著者 Shaozu Ding,Yihong Tang,Marco De Vincenzi,Dajiang Suo
発行日 2024-10-02 05:49:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク