要約
グローバルコンテキストとローカルコンテキストは、Salient Object Detection(SOD)の予測の整合性に大きく貢献します。
残念ながら、既存の方法では、詳細な完全な予測を生成するのにまだ苦労しています。
従来のアプローチには2つの大きな問題があります。1つは、グローバルコンテキストの場合、高レベルのCNNベースのエンコーダ機能が長距離の依存関係を効果的にキャッチできず、予測が不完全になることです。
第二に、予測のサイズに合うようにグラウンドトゥルースをダウンサンプリングすると、補間またはプーリング中にグラウンドトゥルースの詳細が失われるため、不正確になります。
したがって、この作業では、Transformerベースのネットワークを開発し、グローバルコンテキスト情報を明示的に学習するためのブランチの教師ありタスクを組み立てました。
さらに、超解像(SR)のピクセルシャッフルを採用して、予測を逆ではなくグラウンドトゥルースのサイズに再形成します。
したがって、グラウンドトゥルースの詳細は変更されません。
さらに、2段階のコンテキストリファインメントモジュール(CRM)を開発して、グローバルコンテキストを融合し、予測内のローカルの詳細を自動的に見つけてリファインします。
提案されたネットワークは、生成されたグローバルおよびローカルコンテキストに基づいてそれ自体をガイドおよび修正できるため、Self-Refined Transformer(SelfReformer)と呼ばれます。
5つのベンチマークデータセットでの広範な実験と評価結果は、ネットワークの卓越したパフォーマンスを実証し、最先端を達成しました。
要約(オリジナル)
The global and local contexts significantly contribute to the integrity of predictions in Salient Object Detection (SOD). Unfortunately, existing methods still struggle to generate complete predictions with fine details. There are two major problems in conventional approaches: first, for global context, high-level CNN-based encoder features cannot effectively catch long-range dependencies, resulting in incomplete predictions. Second, downsampling the ground truth to fit the size of predictions will introduce inaccuracy as the ground truth details are lost during interpolation or pooling. Thus, in this work, we developed a Transformer-based network and framed a supervised task for a branch to learn the global context information explicitly. Besides, we adopt Pixel Shuffle from Super-Resolution (SR) to reshape the predictions back to the size of ground truth instead of the reverse. Thus details in the ground truth are untouched. In addition, we developed a two-stage Context Refinement Module (CRM) to fuse global context and automatically locate and refine the local details in the predictions. The proposed network can guide and correct itself based on the global and local context generated, thus is named, Self-Refined Transformer (SelfReformer). Extensive experiments and evaluation results on five benchmark datasets demonstrate the outstanding performance of the network, and we achieved the state-of-the-art.
arxiv情報
著者 | Yi Ke Yun,Weisi Lin |
発行日 | 2022-06-14 09:55:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google