Estimating and Maximizing Mutual Information for Knowledge Distillation

要約

タイトル:知識蒸留のための相互情報量の推定と最大化

要約:
– MIMKD (Mutual Information Maximization Knowledge Distillation) という手法を提案する。
– この方法では、教師ネットワークと生徒ネットワーク間の局所的およびグローバルな特徴表現の相互情報量の下限を同時に推定および最大化するために、対照的な目的を使用する。
– より高い性能を持つが計算量が多いモデルから知識を転移することにより、低容量モデルのパフォーマンスを向上させることができる。
– この手法は柔軟であり、任意のネットワークアーキテクチャの教師から任意の生徒ネットワークに知識を注入することができる。
– MIMKD は、異なる性能、異なるアーキテクチャ、極端に低い容量の生徒ネットワークを持つさまざまな生徒-教師ペアにおいて、競合手法より優れた結果を示す。
– CIFAR100 において、ResNet-50 からの知識転移により、ShufflenetV2 による69.8%のベースラインから74.55%の精度を得ることができた。
– Imagenet では、ResNet-34 の教師ネットワークを使用して、ResNet-18 ネットワークの精度を68.88%から70.32%まで改善できた(1.44%+)。

要約(オリジナル)

In this work, we propose Mutual Information Maximization Knowledge Distillation (MIMKD). Our method uses a contrastive objective to simultaneously estimate and maximize a lower bound on the mutual information of local and global feature representations between a teacher and a student network. We demonstrate through extensive experiments that this can be used to improve the performance of low capacity models by transferring knowledge from more performant but computationally expensive models. This can be used to produce better models that can be run on devices with low computational resources. Our method is flexible, we can distill knowledge from teachers with arbitrary network architectures to arbitrary student networks. Our empirical results show that MIMKD outperforms competing approaches across a wide range of student-teacher pairs with different capacities, with different architectures, and when student networks are with extremely low capacity. We are able to obtain 74.55% accuracy on CIFAR100 with a ShufflenetV2 from a baseline accuracy of 69.8% by distilling knowledge from ResNet-50. On Imagenet we improve a ResNet-18 network from 68.88% to 70.32% accuracy (1.44%+) using a ResNet-34 teacher network.

arxiv情報

著者 Aman Shrivastava,Yanjun Qi,Vicente Ordonez
発行日 2023-05-11 13:08:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.IT, math.IT パーマリンク