FAKD: Feature Augmented Knowledge Distillation for Semantic Segmentation

要約

この作業では、セマンティック セグメンテーションに関する知識蒸留のためのデータ拡張について説明します。
教師ネットワークのノイズへの過適合を避けるために、知識の抽出には多数のトレーニング例が不可欠です。
反転、平行移動、回転などの画像レベルの議論手法は、以前の知識の抽出フレームワークで広く使用されています。
特徴空間のセマンティック方向に関する最近の進歩に触発されて、効率的な蒸留のために特徴空間に拡張を含めることを提案します。
具体的には、セマンティックな方向性が与えられると、特徴空間内の生徒に対して無数の拡張を取得できます。
さらに、分析は、拡張によって定義される損失の上限を最小化することによって、これらの拡張を同時に最適化できることを示しています。
この観察に基づいて、セマンティック セグメンテーションにおける知識蒸留のための新しいアルゴリズムが開発されました。
4 つのセマンティック セグメンテーション ベンチマークに関する広範な実験は、提案された方法が、大きなオーバーヘッドなしで現在の知識抽出方法のパフォーマンスを向上できることを示しています。
コードは https://github.com/jianlong-yuan/FAKD で入手できます。

要約(オリジナル)

In this work, we explore data augmentations for knowledge distillation on semantic segmentation. To avoid over-fitting to the noise in the teacher network, a large number of training examples is essential for knowledge distillation. Imagelevel argumentation techniques like flipping, translation or rotation are widely used in previous knowledge distillation framework. Inspired by the recent progress on semantic directions on feature-space, we propose to include augmentations in feature space for efficient distillation. Specifically, given a semantic direction, an infinite number of augmentations can be obtained for the student in the feature space. Furthermore, the analysis shows that those augmentations can be optimized simultaneously by minimizing an upper bound for the losses defined by augmentations. Based on the observation, a new algorithm is developed for knowledge distillation in semantic segmentation. Extensive experiments on four semantic segmentation benchmarks demonstrate that the proposed method can boost the performance of current knowledge distillation methods without any significant overhead. Code is available at: https://github.com/jianlong-yuan/FAKD.

arxiv情報

著者 Jianlong Yuan,Qian Qi,Fei Du,Zhibin Wang,Fan Wang,Yifan Liu
発行日 2022-08-30 10:55:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク