High-resolution Iterative Feedback Network for Camouflaged Object Detection

要約

視覚的に背景に同化したカモフラージュ物体を発見することは、物体検出アルゴリズムにとっても、前景物体と背景の周囲の環境との間に完全に内在する類似性に通常混乱するか騙される人間にとっても厄介である。この課題に取り組むため、我々は、エッジや境界のぼやけを引き起こすディテールの劣化を避けるために、高解像度のテクスチャの詳細を抽出することを目的とする。我々は、高解像度特徴によって低解像度表現を洗練させるために、新しいHitNetを導入し、マルチスケール解像度間のグローバルループに基づく反復フィードバック方式を本質とする。さらに、各フィードバック接続にさらなる制約を課すために、反復フィードバック損失を提案する。本論文では、このような課題を解決するために必要な技術について、4つのデータセットを用いた実証実験を行い、本モデルが性能ボトルネックを解消し、29の最先端技術と比較して大幅な改善を達成することを示す。カモフラージュシナリオにおけるデータ不足に対処するため、領域横断学習を採用して、カモフラージュされた物体の特性を反映できる特徴を抽出し、その特徴を顕著な物体に埋め込むことにより、多様な顕著な物体データセットからより多くのカモフラージュ学習サンプルを生成する応用例を提供しますコードは https://github.com/HUuxiaobin/HitNet で公開予定です。

要約(オリジナル)

Spotting camouflaged objects that are visually assimilated into the background is tricky for both object detection algorithms and humans who are usually confused or cheated by the perfectly intrinsic similarities between the foreground objects and the background surroundings. To tackle this challenge, we aim to extract the high-resolution texture details to avoid the detail degradation that causes blurred vision in edges and boundaries. We introduce a novel HitNet to refine the low-resolution representations by high-resolution features in an iterative feedback manner, essentially a global loop-based connection among the multi-scale resolutions. In addition, an iterative feedback loss is proposed to impose more constraints on each feedback connection. Extensive experiments on four challenging datasets demonstrate that our \ourmodel~breaks the performance bottleneck and achieves significant improvements compared with 29 state-of-the-art methods. To address the data scarcity in camouflaged scenarios, we provide an application example by employing cross-domain learning to extract the features that can reflect the camouflaged object properties and embed the features into salient objects, thereby generating more camouflaged training samples from the diverse salient object datasets The code will be available at https://github.com/HUuxiaobin/HitNet.

arxiv情報

著者 Xiaobin Hu,Shuo Wang,Xuebin Qin,Hang Dai,Wenqi Ren,Ying Tai,Chengjie Wang,Ling Shao
発行日 2023-02-03 11:00:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク