要約
オンライン知識蒸留は、事前にトレーニングされたモデルへの依存を軽減するために、すべての学生モデル間で知識の伝達を行います。
ただし、既存のオンライン手法は予測分布に大きく依存しており、表現知識のさらなる調査を無視しています。
この論文では、オンライン知識蒸留のための新しいマルチスケール特徴抽出および融合法(MFEF)を提案します。これは、マルチスケール特徴抽出、デュアルアテンション、および特徴融合の3つの主要コンポーネントで構成され、
蒸留。
チャネル次元の分割と連結を利用するマルチスケール特徴抽出は、特徴マップのマルチスケール表現能力を改善するために提案されています。
より正確な情報を取得するために、重要なチャネルと空間領域を適応的に強化するための二重注意を設計します。
さらに、学生モデルのトレーニングを支援するために、機能融合を介して以前に処理された機能マップを集約および融合します。
CIF AR-10、CIF AR-100、およびCINIC-10に関する広範な実験は、MFEFが蒸留のためのより有益な表現知識を転送し、さまざまなネットワークアーキテクチャ間で代替方法よりも優れていることを示しています
要約(オリジナル)
Online knowledge distillation conducts knowledge transfer among all student models to alleviate the reliance on pre-trained models. However, existing online methods rely heavily on the prediction distributions and neglect the further exploration of the representational knowledge. In this paper, we propose a novel Multi-scale Feature Extraction and Fusion method (MFEF) for online knowledge distillation, which comprises three key components: Multi-scale Feature Extraction, Dual-attention and Feature Fusion, towards generating more informative feature maps for distillation. The multiscale feature extraction exploiting divide-and-concatenate in channel dimension is proposed to improve the multi-scale representation ability of feature maps. To obtain more accurate information, we design a dual-attention to strengthen the important channel and spatial regions adaptively. Moreover, we aggregate and fuse the former processed feature maps via feature fusion to assist the training of student models. Extensive experiments on CIF AR-10, CIF AR-100, and CINIC-10 show that MFEF transfers more beneficial representational knowledge for distillation and outperforms alternative methods among various network architectures
arxiv情報
著者 | Panpan Zou,Yinglei Teng,Tao Niu |
発行日 | 2022-06-16 14:50:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google