Texture-guided Saliency Distilling for Unsupervised Salient Object Detection

要約

タイトル:未監督型顕著物検出のためのテクスチャガイドの注目度蒸留
要約:

– Deep Learningに基づく未監督型顕著物検出(USOD)は、従来の手作りの方法あるいは事前学習されたネットワークから生成されたノイズの多い注目度擬似ラベルに頼っている。
– このノイジーなラベル問題に対処する方法の一つは、信頼できるラベルを持つ簡単なサンプルにのみ焦点を当て、難しいサンプルにある貴重な知識を無視することである。
– 本論文では、簡単なサンプルと難しいサンプルから豊富で正確な顕著度知識を抽出する新しいUSOD法を提案する。
– 第一に、我々は信頼度に基づく顕著度蒸留(CSD)戦略を提案し、サンプルの信頼度に基づいてサンプルにスコアをつけ、易しいサンプルから難しいサンプルまで順序をつけて顕著度知識を蒸留するようにモデルを誘導する。
– 第二に、我々は、予測された境界周りのテクスチャをマッチングすることでノイジーなラベルの境界を改善するための境界に敏感なテクスチャマッチング(BTM)戦略を提案する。
– RGB、RGB-D、RGB-T、およびビデオSODベンチマークでの広範な実験で、我々の手法が最先端のUSOD性能を達成していることが証明されている。

要約(オリジナル)

Deep Learning-based Unsupervised Salient Object Detection (USOD) mainly relies on the noisy saliency pseudo labels that have been generated from traditional handcraft methods or pre-trained networks. To cope with the noisy labels problem, a class of methods focus on only easy samples with reliable labels but ignore valuable knowledge in hard samples. In this paper, we propose a novel USOD method to mine rich and accurate saliency knowledge from both easy and hard samples. First, we propose a Confidence-aware Saliency Distilling (CSD) strategy that scores samples conditioned on samples’ confidences, which guides the model to distill saliency knowledge from easy samples to hard samples progressively. Second, we propose a Boundary-aware Texture Matching (BTM) strategy to refine the boundaries of noisy labels by matching the textures around the predicted boundary. Extensive experiments on RGB, RGB-D, RGB-T, and video SOD benchmarks prove that our method achieves state-of-the-art USOD performance.

arxiv情報

著者 Huajun Zhou,Bo Qiao,Lingxiao Yang,Jianhuang Lai,Xiaohua Xie
発行日 2023-05-09 04:21:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク