MixSKD: Self-Knowledge Distillation from Mixup for Image Recognition

要約

Self-KDは、従来のKnowledge Distillation(KD)とは異なり、ネットワークが自分自身から知識を学習するもので、他のネットワークから指導を受ける必要はない。本論文では、この2つの手法を統合した、画像混合物からのSelf-KDを提案する(MixSKD)。MixSKDは、ランダムな元画像とその混合画像の組の間の特徴マップと確率分布を相互に意味のある形で抽出する。そのため、混合画像からの監視信号をモデル化することにより、ネットワークが画像横断的な知識を学習するように導く。さらに、バックボーン分類器を監督するためのソフトラベルを提供するために、多段特徴マップを集約して自己教師ネットワークを構築し、自己ブーストの有効性をさらに向上させる。画像分類、および物体検出とセマンティックセグメンテーションへの転移学習の実験により、MixSKDが他の最先端のSelf-KDおよびデータ拡張手法を凌駕することが実証された。コードは https://github.com/winycg/Self-KD-Lib で公開されています。

要約(オリジナル)

Unlike the conventional Knowledge Distillation (KD), Self-KD allows a network to learn knowledge from itself without any guidance from extra networks. This paper proposes to perform Self-KD from image Mixture (MixSKD), which integrates these two techniques into a unified framework. MixSKD mutually distills feature maps and probability distributions between the random pair of original images and their mixup images in a meaningful way. Therefore, it guides the network to learn cross-image knowledge by modelling supervisory signals from mixup images. Moreover, we construct a self-teacher network by aggregating multi-stage feature maps for providing soft labels to supervise the backbone classifier, further improving the efficacy of self-boosting. Experiments on image classification and transfer learning to object detection and semantic segmentation demonstrate that MixSKD outperforms other state-of-the-art Self-KD and data augmentation methods. The code is available at https://github.com/winycg/Self-KD-Lib.

arxiv情報

著者 Chuanguang Yang,Zhulin An,Helong Zhou,Linhang Cai,Xiang Zhi,Jiwen Wu,Yongjun Xu,Qian Zhang
発行日 2022-08-11 11:57:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク