Label-guided Attention Distillation for Lane Segmentation

要約

タイトル:レーンセグメンテーションのためのラベルガイドアテンション蒸留
要約:
– 現代のセグメンテーション方法は、通常、深い完全畳み込みネットワーク(FCN)に基づいています。
– しかし、層を重ねた畳み込みは受容野が拡大し、シーン内のレーンマーカーなどの長距離の正確なコンテキストの捉え方には向いていません。
– 本論文では、セグメンテーションネットワークのトレーニング時に、ラベル構造を利用する蒸留方法を設計して、この問題に取り組んでいます。
– アイデアは、グラウンドトゥルースのレーンアノテーション自体に内部構造があるということです。
– 私たちは、レーンラベルマップを入力として消費し、出力を複製するように試みる教師ネットワークをトレーニングすることで、構造の手がかりを教師ネットワーク全体にブロードキャストします。
– 次に、教師ネットワークのアテンションマップを学生セグメンテーションネットワークの指導者として採用します。
– ラベル構造情報が埋め込まれた教師ネットワークは、畳み込みレイヤーが視覚的な注意を払うべき場所を明確に知っています。
– 提案された方法は、Label-guided Attention Distillation(LGAD)と呼ばれます。
– 学生ネットワークは、独自に学習するよりもLGADを使用することで大幅に向上します。
– 教師ネットワークはトレーニング後に非推奨になるため、推論時間は増加しません。
– LGADは、どのレーンセグメンテーションネットワークにも簡単に組み込むことができます。

要約(オリジナル)

Contemporary segmentation methods are usually based on deep fully convolutional networks (FCNs). However, the layer-by-layer convolutions with a growing receptive field is not good at capturing long-range contexts such as lane markers in the scene. In this paper, we address this issue by designing a distillation method that exploits label structure when training segmentation network. The intuition is that the ground-truth lane annotations themselves exhibit internal structure. We broadcast the structure hints throughout a teacher network, i.e., we train a teacher network that consumes a lane label map as input and attempts to replicate it as output. Then, the attention maps of the teacher network are adopted as supervisors of the student segmentation network. The teacher network, with label structure information embedded, knows distinctly where the convolution layers should pay visual attention into. The proposed method is named as Label-guided Attention Distillation (LGAD). It turns out that the student network learns significantly better with LGAD than when learning alone. As the teacher network is deprecated after training, our method do not increase the inference time. Note that LGAD can be easily incorporated in any lane segmentation network.

arxiv情報

著者 Zhikang Liu,Lanyun Zhu
発行日 2023-04-04 08:46:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク