要約
既存の顕著物体検出(SOD)モデルの多くは、複雑かつ巨大なモデル構造のため、適用が困難である。また、いくつかの軽量なモデルが提案されているが、その精度はほとんど満足できるものではない。本論文では、高精度かつ効率的な顕著物体検出のために、多階層特徴の対話的融合に焦点を当てた新しいセマンティクス誘導型文脈融合ネットワーク(SCFNet)を設計する。さらに、我々は知識抽出をSODタスクに適用し、大規模なデータセットKD-SOD80Kを提供する。具体的には、ラベル付けされていない画像を通して、熟練教師からの豊富な知識を未訓練のSCFNetに伝達し、SCFNetが顕著な物体をより正確に検出するための強い汎化能力を学習することを可能にする。知識蒸留に基づくSCFNet(KDSCFNet)は、1M未満のパラメータと174FPSのリアルタイム検出速度で、最先端のヘビー級手法と同等の精度を達成する。広範な実験により、提案する蒸留法とSODフレームワークの頑健性と有効性を実証する。コードとデータ: https://github.com/zhangjinCV/KD-SCFNet.
要約(オリジナル)
Most existing salient object detection (SOD) models are difficult to apply due to the complex and huge model structures. Although some lightweight models are proposed, the accuracy is barely satisfactory. In this paper, we design a novel semantics-guided contextual fusion network (SCFNet) that focuses on the interactive fusion of multi-level features for accurate and efficient salient object detection. Furthermore, we apply knowledge distillation to SOD task and provide a sizeable dataset KD-SOD80K. In detail, we transfer the rich knowledge from a seasoned teacher to the untrained SCFNet through unlabeled images, enabling SCFNet to learn a strong generalization ability to detect salient objects more accurately. The knowledge distillation based SCFNet (KDSCFNet) achieves comparable accuracy to the state-of-the-art heavyweight methods with less than 1M parameters and 174 FPS real-time detection speed. Extensive experiments demonstrate the robustness and effectiveness of the proposed distillation method and SOD framework. Code and data: https://github.com/zhangjinCV/KD-SCFNet.
arxiv情報
著者 | Jin Zhang,Qiuwei Liang,Yanjiao Shi |
発行日 | 2022-08-03 16:03:11+00:00 |
arxivサイト | arxiv_id(pdf) |