NorMatch: Matching Normalizing Flows with Discriminative Classifiers for Semi-Supervised Learning

要約

半教師あり学習 (SSL) は、小さなラベル付きセットと大量のラベルなしデータを使用してモデルを学習することを目的としています。
ラベルのないデータをより有効に活用するために、最新の SSL メソッドは、単一の識別分類子から予測された疑似ラベルを使用します。
ただし、生成された擬似ラベルは、モデルのパフォーマンスに大きな影響を与える固有の確認バイアスとノイズに必然的に関連付けられます。
この作業では、NorMatch という名前の SSL の新しいフレームワークを導入します。
まず、補助分類器としてフローの正規化に基づく新しい不確実性推定スキームを導入し、識別分類器の向上をもたらす確実性の高い擬似ラベルを強制します。
次に、信頼性の高い擬似ラベルと低い擬似ラベルの両方をより効果的に活用するために、閾値のないサンプル重み付け戦略を導入します。
さらに、正規化フローを利用して、教師なしの方法で、ラベルのないデータの分布をモデル化します。
このモデリング仮定は、ラベルなしデータを介して生成分類器のパフォーマンスをさらに向上させることができ、したがって、より優れた識別分類器のトレーニングに暗黙的に貢献します。
数値的および視覚的な結果を通じて、NorMatch がいくつかのデータセットで最先端のパフォーマンスを達成することを実証します。

要約(オリジナル)

Semi-Supervised Learning (SSL) aims to learn a model using a tiny labeled set and massive amounts of unlabeled data. To better exploit the unlabeled data the latest SSL methods use pseudo-labels predicted from a single discriminative classifier. However, the generated pseudo-labels are inevitably linked to inherent confirmation bias and noise which greatly affects the model performance. In this work we introduce a new framework for SSL named NorMatch. Firstly, we introduce a new uncertainty estimation scheme based on normalizing flows, as an auxiliary classifier, to enforce highly certain pseudo-labels yielding a boost of the discriminative classifiers. Secondly, we introduce a threshold-free sample weighting strategy to exploit better both high and low confidence pseudo-labels. Furthermore, we utilize normalizing flows to model, in an unsupervised fashion, the distribution of unlabeled data. This modelling assumption can further improve the performance of generative classifiers via unlabeled data, and thus, implicitly contributing to training a better discriminative classifier. We demonstrate, through numerical and visual results, that NorMatch achieves state-of-the-art performance on several datasets.

arxiv情報

著者 Zhongying Deng,Rihuan Ke,Carola-Bibiane Schonlieb,Angelica I Aviles-Rivero
発行日 2024-02-16 16:50:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク