要約
タイトル: 一対複数のトランスフォーマーによるエンドツーエンドのレーン検出
要約:
– レーン検出方法は現実のシナリオで驚異的な性能を発揮しているが、大部分の方法は十分に強靱ではない後処理が必要です。
– そのため、DEtection TRansformer(DETR)のようなエンドツーエンド検出器がレーン検出に導入されています。
– ただし、DETRでの一対一のラベル割り当てはラベルの意味の競合によりトレーニング効率が低下する可能性があります。
– また、DETRの位置クエリは明確な位置先行事項を提供することができないため最適化が困難です。
– 本論文では、One-to-Several Transformer(O2SFormer)を提案します。
– まず、一対から複数へのラベル割り当てを提案し、エンドツーエンド検出を保持しながらトレーニング効率を向上させます。
– 一対一の割り当てを最適化するために、異なるデコーダ層で陽性レーンアンカーの陽性重みを調整するレイヤーごとのソフトラベルを提案します。
– 最後に、レーンアンカーを位置クエリに組み込むことで位置先行知識を探索する動的アンカーベースの位置クエリを設計します。
– 実験結果は、O2SFormerがDETRよりも収束速度を大幅に速め、CULaneデータセットでTransformerベースとCNNベースの検出器を上回ることを示しています。コードはhttps://github.com/zkyseu/O2SFormerで利用可能になります。
要約(オリジナル)
Although lane detection methods have shown impressive performance in real-world scenarios, most of methods require post-processing which is not robust enough. Therefore, end-to-end detectors like DEtection TRansformer(DETR) have been introduced in lane detection. However, one-to-one label assignment in DETR can degrade the training efficiency due to label semantic conflicts. Besides, positional query in DETR is unable to provide explicit positional prior, making it difficult to be optimized. In this paper, we present the One-to-Several Transformer(O2SFormer). We first propose the one-to-several label assignment, which combines one-to-one and one-to-many label assignments to improve the training efficiency while keeping end-to-end detection. To overcome the difficulty in optimizing one-to-one assignment. We further propose the layer-wise soft label which adjusts the positive weight of positive lane anchors across different decoder layers. Finally, we design the dynamic anchor-based positional query to explore positional prior by incorporating lane anchors into positional query. Experimental results show that O2SFormer significantly speeds up the convergence of DETR and outperforms Transformer-based and CNN-based detectors on the CULane dataset. Code will be available at https://github.com/zkyseu/O2SFormer.
arxiv情報
著者 | Kunyang Zhou,Rui Zhou |
発行日 | 2023-05-02 12:13:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI