ROADWork Dataset: Learning to Recognize, Observe, Analyze and Drive Through Work Zones

要約

自動運転研究が大きく進歩しているにもかかわらず、作業ゾーンを認識して移動することは困難であり、十分に研究されていません。
重要な理由は、このロングテールのシナリオに対処するための新しいアルゴリズムを開発するためのオープンなデータセットが不足していることです。
私たちは、作業ゾーンを認識、観察、分析し、運転する方法を学ぶために ROADWork データセットを提案します。
最先端の基礎モデルは作業ゾーンではパフォーマンスが低いことがわかりました。
当社のデータセットを使用すると、作業ゾーンのオブジェクトの検出が向上し (+26.2 AP)、より高い検出率 (12.8 倍) でより高い精度 (+32.5%) で作業ゾーンを検出し、検出 (+23.9 AP) と読み取りが大幅に向上しました。
(+14.2% 1-NED) 作業区域の標識と作業区域の説明 (+36.7 SPICE)。
また、作業ゾーンのナビゲーション ビデオから走行可能な経路を計算し、53.6% の目標の角度誤差 (AE) < 0.5 度 (+9.9 %) および 75.3% の経路の AE < 0.5 度になるように、ナビゲーションの目標と経路を予測できることを示します。 (+8.1%)。

要約(オリジナル)

Perceiving and navigating through work zones is challenging and under-explored, even with major strides in self-driving research. An important reason is the lack of open datasets for developing new algorithms to address this long-tailed scenario. We propose the ROADWork dataset to learn how to recognize, observe and analyze and drive through work zones. We find that state-of-the-art foundation models perform poorly on work zones. With our dataset, we improve upon detecting work zone objects (+26.2 AP), while discovering work zones with higher precision (+32.5%) at a much higher discovery rate (12.8 times), significantly improve detecting (+23.9 AP) and reading (+14.2% 1-NED) work zone signs and describing work zones (+36.7 SPICE). We also compute drivable paths from work zone navigation videos and show that it is possible to predict navigational goals and pathways such that 53.6% goals have angular error (AE) < 0.5 degrees (+9.9 %) and 75.3% pathways have AE < 0.5 degrees (+8.1 %).

arxiv情報

著者 Anurag Ghosh,Robert Tamburo,Shen Zheng,Juan R. Alvarez-Padilla,Hailiang Zhu,Michael Cardei,Nicholas Dunn,Christoph Mertz,Srinivasa G. Narasimhan
発行日 2024-06-11 19:06:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク