SelfReformer: Self-Refined Network with Transformer for Salient Object Detection

要約

顕著な物体検出(SOD)において、グローバルな文脈とローカルな文脈は予測の完全性に大きく貢献する。しかし、残念ながら、既存の手法では、細かいディテールを持つ完全な予測を生成することはまだ困難である。まず、グローバルなコンテキストに対して、高レベルのCNNベースのエンコーダ機能は長距離依存性を効果的に捕らえることができず、不完全な予測になる。第二に、予測値のサイズに合わせるために地上絵のサンプリングを下げると、補間やプーリングの際に地上絵の詳細が失われるため、不正確な予測になってしまう。そこで、本研究では、Transformerベースのネットワークを開発し、グローバルな文脈情報を明示的に学習するブランチのための教師付きタスクを構成する。また、SR(Super-Resolution)のPixel Shuffleを採用し、予測値の大きさをグランドトゥルースの大きさに合わせて整形する。このため、Ground Truthのディテールはそのまま残される。さらに、2段階のコンテキストリファインメントモジュール(CRM)を開発し、グローバルコンテキストを融合し、予測値のローカルディテールを自動的に検出・改良する。提案するネットワークは、生成されたグローバルコンテキストとローカルコンテキストに基づいて、自分自身を誘導し修正することができるため、Self-Reformerと命名した。5つのベンチマークデータセットに対する広範な実験と評価結果は、本ネットワークの優れた性能を実証し、最先端技術を達成した。

要約(オリジナル)

The global and local contexts significantly contribute to the integrity of predictions in Salient Object Detection (SOD). Unfortunately, existing methods still struggle to generate complete predictions with fine details. There are two major problems in conventional approaches: first, for global context, high-level CNN-based encoder features cannot effectively catch long-range dependencies, resulting in incomplete predictions. Second, downsampling the ground truth to fit the size of predictions will introduce inaccuracy as the ground truth details are lost during interpolation or pooling. Thus, in this work, we developed a Transformer-based network and framed a supervised task for a branch to learn the global context information explicitly. Besides, we adopt Pixel Shuffle from Super-Resolution (SR) to reshape the predictions back to the size of ground truth instead of the reverse. Thus details in the ground truth are untouched. In addition, we developed a two-stage Context Refinement Module (CRM) to fuse global context and automatically locate and refine the local details in the predictions. The proposed network can guide and correct itself based on the global and local context generated, thus is named, Self-Refined Transformer (SelfReformer). Extensive experiments and evaluation results on five benchmark datasets demonstrate the outstanding performance of the network, and we achieved the state-of-the-art.

arxiv情報

著者 Yi Ke Yun,Weisi Lin
発行日 2022-06-07 12:58:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク