YOLO-TS: Real-Time Traffic Sign Detection with Enhanced Accuracy Using Optimized Receptive Fields and Anchor-Free Fusion

要約

自動運転と先進運転支援システム (ADAS) の両方における安全性の確保は、交通標識認識テクノロジーの効率的な展開に大きく依存しています。
現在の方法は有効性を示していますが、速度と精度の間で妥協することがよくあります。
この問題に対処するために、新しいリアルタイムで効率的な道路標識検出ネットワーク YOLO-TS を紹介します。
このネットワークは、マルチスケール フィーチャ マップの受容野を最適化して、さまざまなデータセット内の交通標識のサイズ分布とより厳密に一致させることで、パフォーマンスを大幅に向上させます。
さらに、アンカーフリー手法の柔軟性を活用した革新的な特徴融合戦略により、コンテキスト情報が豊富な高解像度の特徴マップ上でマルチスケールの物体検出が可能になり、精度と速度の両方で大幅な向上を実現します。
より小さいオブジェクトの検出における拡張畳み込みによって引き起こされるグリッド パターンの悪影響を軽減するために、このグリッド効果を軽減するだけでなく、広範な空間コンテキスト情報を包含するように受容野を広げる独自のモジュールを考案しました。
情報利用の効率を高めます。
挑戦的な公開データセットである TT100K および CCTSDB2021 の評価では、YOLO-TS が精度と速度の両方の点で既存の最先端の手法を上回っていることが実証されています。
私たちのメソッドのコードが利用可能になります。

要約(オリジナル)

Ensuring safety in both autonomous driving and advanced driver-assistance systems (ADAS) depends critically on the efficient deployment of traffic sign recognition technology. While current methods show effectiveness, they often compromise between speed and accuracy. To address this issue, we present a novel real-time and efficient road sign detection network, YOLO-TS. This network significantly improves performance by optimizing the receptive fields of multi-scale feature maps to align more closely with the size distribution of traffic signs in various datasets. Moreover, our innovative feature-fusion strategy, leveraging the flexibility of Anchor-Free methods, allows for multi-scale object detection on a high-resolution feature map abundant in contextual information, achieving remarkable enhancements in both accuracy and speed. To mitigate the adverse effects of the grid pattern caused by dilated convolutions on the detection of smaller objects, we have devised a unique module that not only mitigates this grid effect but also widens the receptive field to encompass an extensive range of spatial contextual information, thus boosting the efficiency of information usage. Evaluation on challenging public datasets, TT100K and CCTSDB2021, demonstrates that YOLO-TS surpasses existing state-of-the-art methods in terms of both accuracy and speed. The code for our method will be available.

arxiv情報

著者 Junzhou Chen,Heqiang Huang,Ronghui Zhang,Nengchao Lyu,Yanyong Guo,Hong-Ning Dai,Hong Yan
発行日 2024-10-22 16:19:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク