FENet: Focusing Enhanced Network for Lane Detection

要約

人間の運転の焦点に触発されたこの研究は、フォーカシング サンプリング、部分視野評価、強化された FPN アーキテクチャ、および方向性 IoU 損失で強化されたネットワークの先駆者であり、障害物に対処して自動運転のための正確な車線検出を行うターゲットを絞ったイノベーションです。
実験では、均一なアプローチとは異なり、遠方の重要な詳細を強調するフォーカシング サンプリング戦略が、安全に不可欠なベンチマークと実用的なカーブ/遠方車線の認識精度の両方を大幅に向上させることを実証しています。
FENetV1 は、ドライバーの視覚を模倣する遠近感を意識したコンテキストを分離する機能強化により、最先端の従来のメトリック パフォーマンスを実現しますが、提案された部分フィールド解析では FENetV2 が最も信頼性が高いことが証明されています。
したがって、標準的な画像全体の尺度での部分的な劣化にもかかわらず、実用的な車線ナビゲーションには V2 を特に推奨します。
将来の方向性には、道路上のデータを収集し、人間の知覚原理に基づいてさらなるブレークスルーを実現するための補完的な二重フレームワークを統合することが含まれます。
コードは https://github.com/HanyangZhong/FENet で入手できます。

要約(オリジナル)

Inspired by human driving focus, this research pioneers networks augmented with Focusing Sampling, Partial Field of View Evaluation, Enhanced FPN architecture and Directional IoU Loss – targeted innovations addressing obstacles to precise lane detection for autonomous driving. Experiments demonstrate our Focusing Sampling strategy, emphasizing vital distant details unlike uniform approaches, significantly boosts both benchmark and practical curved/distant lane recognition accuracy essential for safety. While FENetV1 achieves state-of-the-art conventional metric performance via enhancements isolating perspective-aware contexts mimicking driver vision, FENetV2 proves most reliable on the proposed Partial Field analysis. Hence we specifically recommend V2 for practical lane navigation despite fractional degradation on standard entire-image measures. Future directions include collecting on-road data and integrating complementary dual frameworks to further breakthroughs guided by human perception principles. The Code is available at https://github.com/HanyangZhong/FENet.

arxiv情報

著者 Liman Wang,Hanyang Zhong
発行日 2024-04-26 15:06:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク