要約
知識蒸留 (KD) は、物体検出に有効であることが示されています。KD は、AI の知識 (教師検出器) と人間の知識 (人間の専門家) の両方の監督下でコンパクトな物体検出器をトレーニングします。
ただし、既存の研究では、AI の知識と人間の知識を一貫して扱い、学習中に均一なデータ拡張戦略を採用しているため、マルチスケール オブジェクトの偏った学習や教師検出器の不十分な学習につながり、不十分な蒸留パフォーマンスが発生します。
これらの問題に取り組むために、サンプル固有のデータ増強と敵対的特徴増強を提案します。
まず、マルチスケール オブジェクトによって発生する影響を軽減するために、フーリエの観点からの観察に基づいて、適応型データ拡張を提案します。
第二に、教師検出器の不十分な情報マイニングを補うために、AI の知識をよりよく模倣するための敵対的な例に基づく特徴増強方法を提案します。
さらに、提案手法は統一されており、他の KD 手法に容易に拡張できます。
広範な実験により、フレームワークの有効性が実証され、1 段階および 2 段階の検出器で最先端の方法のパフォーマンスが向上し、最大で 0.5 mAP のゲインが得られます。
要約(オリジナル)
Knowledge distillation (KD) has shown its effectiveness for object detection, where it trains a compact object detector under the supervision of both AI knowledge (teacher detector) and human knowledge (human expert). However, existing studies treat the AI knowledge and human knowledge consistently and adopt a uniform data augmentation strategy during learning, which would lead to the biased learning of multi-scale objects and insufficient learning for the teacher detector causing unsatisfactory distillation performance. To tackle these problems, we propose the sample-specific data augmentation and adversarial feature augmentation. Firstly, to mitigate the impact incurred by multi-scale objects, we propose an adaptive data augmentation based on our observations from the Fourier perspective. Secondly, we propose a feature augmentation method based on adversarial examples for better mimicking AI knowledge to make up for the insufficient information mining of the teacher detector. Furthermore, our proposed method is unified and easily extended to other KD methods. Extensive experiments demonstrate the effectiveness of our framework and improve the performance of state-of-the-art methods in one-stage and two-stage detectors, bringing at most 0.5 mAP gains.
arxiv情報
著者 | Jiawei Liang,Siyuan Liang,Aishan Liu,Mingli Zhu,Danni Yuan,Chenye Xu,Xiaochun Cao |
発行日 | 2022-09-20 16:36:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google