Towards Diverse Binary Segmentation via A Simple yet General Gated Network

要約

多くの2値セグメンテーションタスクにおいて、ほとんどのCNNベースの手法は、基本構造としてU字型のエンコーダ・デコーダネットワークを用いている。それらは、エンコーダがデコーダと情報を交換する際の2つの重要な問題を無視している。1つは、両者間の干渉制御メカニズムの欠如であり、もう1つは、異なるエンコーダレベルからの寄与の格差を考慮しないことである。本研究では、これらの問題を一挙に解決するために、シンプルかつ汎用的なゲートネットワーク(GateNet)を提案する。複数レベルのゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報を選択的にデコーダに伝送することができる。さらに、異なるレベルの特徴間の協調を構築し、ネットワークの識別能力を向上させるために、ゲート二重分岐構造を設計する。さらに、ASPPやDenseASPPに柔軟に組み込むことで、様々なスケールの前景オブジェクトを正確に定位させることができる。GateNetは、一般的なオブジェクトセグメンテーション、特定のオブジェクトセグメンテーション、マルチモーダルセグメンテーションなど、多くの2値セグメンテーションタスクに容易に一般化することができる。このネットワークは、10個のバイナリー・セグメンテーション・タスクの33個のデータセットにおいて、10個のメトリクスの下で、常に最先端の手法に対して良好な性能を示した。

要約(オリジナル)

In many binary segmentation tasks, most CNNs-based methods use a U-shape encoder-decoder network as their basic structure. They ignore two key problems when the encoder exchanges information with the decoder: one is the lack of interference control mechanism between them, the other is without considering the disparity of the contributions from different encoder levels. In this work, we propose a simple yet general gated network (GateNet) to tackle them all at once. With the help of multi-level gate units, the valuable context information from the encoder can be selectively transmitted to the decoder. In addition, we design a gated dual branch structure to build the cooperation among the features of different levels and improve the discrimination ability of the network. Furthermore, we introduce a ‘Fold’ operation to improve the atrous convolution and form a novel folded atrous convolution, which can be flexibly embedded in ASPP or DenseASPP to accurately localize foreground objects of various scales. GateNet can be easily generalized to many binary segmentation tasks, including general and specific object segmentation and multi-modal segmentation. Without bells and whistles, our network consistently performs favorably against the state-of-the-art methods under 10 metrics on 33 datasets of 10 binary segmentation tasks.

arxiv情報

著者 Xiaoqi Zhao,Youwei Pang,Lihe Zhang,Huchuan Lu,Lei Zhang
発行日 2024-05-03 11:41:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク