Exploring Inconsistent Knowledge Distillation for Object Detection with Data Augmentation

要約

オブジェクト検出のための知識蒸留 (KD) は、教師モデルから知識を転送することでコンパクトな検出器をトレーニングすることを目的としています。
教師モデルは人間とは異なる方法でデータを認識するため、既存の KD 手法では、人間の専門家によって注釈が付けられたラベルと一致する知識のみが抽出され、人間の認識と一致しない知識は無視されます。その結果、抽出が不十分で、最適なパフォーマンスが得られません。
この論文では、教師モデルの直感に反する認識に固有の知識を抽出することを目的とした、矛盾した知識の抽出 (IKD) を提案します。
まず、教師モデルの周波数と非ロバストな特徴に対する直感に反する認識について検討します。
きめの細かい特徴を活用したり、追加の正則化を導入したこれまでの研究とは異なり、データ拡張を使用して多様な入力を提供することで一貫性のない知識を抽出します。
具体的には、教師モデルの異なる周波数成分を捕捉する能力を伝達するサンプル固有のデータ拡張を提案し、データ内の非ロバストな特徴に対する教師モデルの認識を抽出する敵対的特徴拡張を提案します。
広範な実験により、1 段階、2 段階、およびアンカーフリーの物体検出器 (最大 +1.0 mAP) で最先端の KD ベースラインを上回るこの方法の有効性が実証されました。
コードは \url{https://github.com/JWLiang007/IKD.git} で利用できるようになります。

要約(オリジナル)

Knowledge Distillation (KD) for object detection aims to train a compact detector by transferring knowledge from a teacher model. Since the teacher model perceives data in a way different from humans, existing KD methods only distill knowledge that is consistent with labels annotated by human expert while neglecting knowledge that is not consistent with human perception, which results in insufficient distillation and sub-optimal performance. In this paper, we propose inconsistent knowledge distillation (IKD), which aims to distill knowledge inherent in the teacher model’s counter-intuitive perceptions. We start by considering the teacher model’s counter-intuitive perceptions of frequency and non-robust features. Unlike previous works that exploit fine-grained features or introduce additional regularizations, we extract inconsistent knowledge by providing diverse input using data augmentation. Specifically, we propose a sample-specific data augmentation to transfer the teacher model’s ability in capturing distinct frequency components and suggest an adversarial feature augmentation to extract the teacher model’s perceptions of non-robust features in the data. Extensive experiments demonstrate the effectiveness of our method which outperforms state-of-the-art KD baselines on one-stage, two-stage and anchor-free object detectors (at most +1.0 mAP). Our codes will be made available at \url{https://github.com/JWLiang007/IKD.git}.

arxiv情報

著者 Jiawei Liang,Siyuan Liang,Aishan Liu,Ke Ma,Jingzhi Li,Xiaochun Cao
発行日 2024-02-21 15:02:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク