要約
既存の顕著な物体検出 (SOD) モデルのほとんどは、モデル構造が複雑で巨大であるため、適用が困難です。
いくつかの軽量モデルが提案されていますが、精度はかろうじて満足できるものではありません。
この論文では、正確かつ効率的な顕著なオブジェクト検出のためのマルチレベル機能のインタラクティブな融合に焦点を当てた、新しいセマンティクスに基づくコンテキスト融合ネットワーク (SCFNet) を設計します。
さらに、知識の蒸留を SOD タスクに適用し、かなりのデータセット KD-SOD80K を提供します。
詳細には、経験豊富な教師からの豊富な知識を、ラベルのない画像を介して訓練されていない SCFNet に転送し、SCFNet が顕著なオブジェクトをより正確に検出する強力な一般化能力を学習できるようにします。
知識の蒸留に基づく SCFNet (KDSCFNet) は、1M 未満のパラメーターと 174 FPS のリアルタイム検出速度で、最先端のヘビーウェイト メソッドに匹敵する精度を達成します。
広範な実験は、提案された蒸留法と SOD フレームワークの堅牢性と有効性を示しています。
コードとデータ: https://github.com/zhangjinCV/KD-SCFNet。
要約(オリジナル)
Most existing salient object detection (SOD) models are difficult to apply due to the complex and huge model structures. Although some lightweight models are proposed, the accuracy is barely satisfactory. In this paper, we design a novel semantics-guided contextual fusion network (SCFNet) that focuses on the interactive fusion of multi-level features for accurate and efficient salient object detection. Furthermore, we apply knowledge distillation to SOD task and provide a sizeable dataset KD-SOD80K. In detail, we transfer the rich knowledge from a seasoned teacher to the untrained SCFNet through unlabeled images, enabling SCFNet to learn a strong generalization ability to detect salient objects more accurately. The knowledge distillation based SCFNet (KDSCFNet) achieves comparable accuracy to the state-of-the-art heavyweight methods with less than 1M parameters and 174 FPS real-time detection speed. Extensive experiments demonstrate the robustness and effectiveness of the proposed distillation method and SOD framework. Code and data: https://github.com/zhangjinCV/KD-SCFNet.
arxiv情報
著者 | Jin Zhang,Qiuwei Liang,Yanjiao Shi |
発行日 | 2022-11-21 17:13:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google