Task-Balanced Distillation for Object Detection

要約

主流の物体検出器は、分類タスクと回帰タスクの2つのサブタスクで構成され、2つの並列ヘッドで実装されるのが一般的である。この古典的な設計パラダイムは、分類スコアとローカライゼーション品質(IOU)の間の空間分布の不整合を必然的に引き起こす。そこで、本論文では、知識蒸留の観点から、この不整合を緩和する。まず、大量の教師は軽量の生徒よりも高い割合で調和のとれた予測を達成することを観察する。この興味深い観察に基づき、分類と回帰の性質の整合を推定するために、新しいハーモニースコア(HS)が考案される。HSは2つのサブタスク間の関係をモデル化し、生徒の調和的な予測を促進するための事前知識として捉えられる。次に、この空間的な不整合は、特徴量を抽出する際に、非調和な領域選択をもたらすことになる。この問題を緩和するために、分類タスクと回帰タスクの寄与を柔軟にバランスさせた新しいタスク分離型特徴蒸留法(TFD)を提案する。最終的に、HDとTFDはTask-Balanced Distillation (TBD)と呼ばれる提案手法を構成する。広範な実験により、提案手法の大きな可能性と汎用性が示される。特に、TBDを搭載したResNet-50によるRetinaNetは、COCOベンチマークにおいて41.0mAPを達成し、最近のFGDやFRSを凌駕している。

要約(オリジナル)

Mainstream object detectors are commonly constituted of two sub-tasks, including classification and regression tasks, implemented by two parallel heads. This classic design paradigm inevitably leads to inconsistent spatial distributions between classification score and localization quality (IOU). Therefore, this paper alleviates this misalignment in the view of knowledge distillation. First, we observe that the massive teacher achieves a higher proportion of harmonious predictions than the lightweight student. Based on this intriguing observation, a novel Harmony Score (HS) is devised to estimate the alignment of classification and regression qualities. HS models the relationship between two sub-tasks and is seen as prior knowledge to promote harmonious predictions for the student. Second, this spatial misalignment will result in inharmonious region selection when distilling features. To alleviate this problem, a novel Task-decoupled Feature Distillation (TFD) is proposed by flexibly balancing the contributions of classification and regression tasks. Eventually, HD and TFD constitute the proposed method, named Task-Balanced Distillation (TBD). Extensive experiments demonstrate the considerable potential and generalization of the proposed method. Specifically, when equipped with TBD, RetinaNet with ResNet-50 achieves 41.0 mAP under the COCO benchmark, outperforming the recent FGD and FRS.

arxiv情報

著者 Ruining Tang,Zhenyu Liu,Yangguang Li,Yiguo Song,Hui Liu,Qide Wang,Jing Shao,Guifang Duan,Jianrong Tan
発行日 2022-08-05 06:43:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク