DecoupleNet: Decoupled Network for Domain Adaptive Semantic Segmentation

要約

セマンティックセグメンテーションにおける教師なしドメイン適応は、高価なピクセル単位の注釈への依存を軽減するために提起されました。
ラベル付きのソースドメインデータセットとラベルなしのターゲットドメイン画像を活用して、セグメンテーションネットワークを学習します。
この論文では、既存のドメイン不変学習フレームワークの2つの主要な問題を観察します。
(1)特徴分布の調整に気を取られて、ネットワークはセグメンテーションタスクに集中できません。
(2)ソースドメインデータを適切に適合させると、ターゲットドメインのパフォーマンスが低下します。
これらの問題に対処するために、ソースドメインの過剰適合を軽減し、最終モデルがセグメンテーションタスクにより集中できるようにするDecoupleNetを提案します。
さらに、自己識別(SD)を提案し、疑似ラベルを使用してより識別力のあるターゲットドメイン機能を学習するための補助分類器を導入します。
最後に、オンラインで疑似ラベルの品質を状況に応じて向上させるために、Online Enhanced Self-Training(OEST)を提案します。
実験は、私たちの方法が既存の最先端の方法よりも優れていることを示しており、広範なアブレーション研究により、各コンポーネントの有効性が検証されています。
コードはhttps://github.com/dvlab-research/DecoupleNetで入手できます。

要約(オリジナル)

Unsupervised domain adaptation in semantic segmentation has been raised to alleviate the reliance on expensive pixel-wise annotations. It leverages a labeled source domain dataset as well as unlabeled target domain images to learn a segmentation network. In this paper, we observe two main issues of the existing domain-invariant learning framework. (1) Being distracted by the feature distribution alignment, the network cannot focus on the segmentation task. (2) Fitting source domain data well would compromise the target domain performance. To address these issues, we propose DecoupleNet that alleviates source domain overfitting and enables the final model to focus more on the segmentation task. Furthermore, we put forward Self-Discrimination (SD) and introduce an auxiliary classifier to learn more discriminative target domain features with pseudo labels. Finally, we propose Online Enhanced Self-Training (OEST) to contextually enhance the quality of pseudo labels in an online manner. Experiments show our method outperforms existing state-of-the-art methods, and extensive ablation studies verify the effectiveness of each component. Code is available at https://github.com/dvlab-research/DecoupleNet.

arxiv情報

著者 Xin Lai,Zhuotao Tian,Xiaogang Xu,Yingcong Chen,Shu Liu,Hengshuang Zhao,Liwei Wang,Jiaya Jia
発行日 2022-07-20 15:47:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク