DiverseNet: Decision Diversified Semi-supervised Semantic Segmentation Networks for Remote Sensing Imagery

要約

半教師あり学習は、トレーニング段階で限られたラベル付きデータのセットとともに、大量のラベルなしデータのプールから抽出された貴重な特徴を活用することで、手動ラベル付けプロセスのコストを削減することを目的としています。
大規模なリモート センシング画像におけるピクセル レベルの手動ラベル付けはコストがかかるため、半教師あり学習がこれに対する適切な解決策となります。
ただし、ネットワーク摂動に基づく既存の一貫性学習フレームワークのほとんどは非常に大規模です。
トレーニング中の特徴の多様性と疑似ラベルの精度を促進する軽量で効率的な摂動手法はまだ不足しています。
このギャップを埋めるために、トレーニング中の精度と多様性を同時に強化することで、マルチヘッドおよびマルチモデルの半教師あり学習アルゴリズムを探求する DiverseNet を提案します。
DiverseNet ファミリで提案されている 2 つの手法、つまり DiverseHead と DiverseModel はどちらも、最先端の半教師あり学習手法と比較して、広く利用されている 4 つのリモート センシング画像データ セットにおいてより優れたセマンティック セグメンテーション パフォーマンスを実現します。
一方、提案されている DiverseHead アーキテクチャは、最先端の手法と比較してパラメータ空間の点でシンプルで比較的軽量でありながら、テストされたすべてのデータセットに対して高いパフォーマンスの結果を達成します。

要約(オリジナル)

Semi-supervised learning aims to help reduce the cost of the manual labelling process by leveraging valuable features extracted from a substantial pool of unlabeled data alongside a limited set of labelled data during the training phase. Since pixel-level manual labelling in large-scale remote sensing imagery is expensive, semi-supervised learning becomes an appropriate solution to this. However, most of the existing consistency learning frameworks based on network perturbation are very bulky. There is still a lack of lightweight and efficient perturbation methods to promote the diversity of features and the precision of pseudo labels during training. In order to fill this gap, we propose DiverseNet which explores multi-head and multi-model semi-supervised learning algorithms by simultaneously enhancing precision and diversity during training. The two proposed methods in the DiverseNet family, namely DiverseHead and DiverseModel, both achieve the better semantic segmentation performance in four widely utilised remote sensing imagery data sets compared to state-of-the-art semi-supervised learning methods. Meanwhile, the proposed DiverseHead architecture is simple and relatively lightweight in terms of parameter space compared to the state-of-the-art methods whilst reaching high-performance results for all the tested data sets.

arxiv情報

著者 Wanli Ma,Oktay Karakus,Paul L. Rosin
発行日 2024-03-31 19:23:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク