ConMatch: Semi-Supervised Learning with Confidence-Guided Consistency Regularization

要約

ConMatch と呼ばれる疑似ラベルの信頼度によって重み付けされた、画像の 2 つの強力に拡張されたビューからのモデルの予測間の一貫性の正則化をインテリジェントに活用する、新しい半教師あり学習フレームワークを提示します。
最新の半教師あり学習方法では、画像の弱拡張ビューと強拡張ビューを使用して方向の一貫性の喪失を定義しますが、2 つの強力に拡張されたビュー間の一貫性の正則化のためにそのような方向を定義する方法は未調査のままです。
これを説明するために、ノンパラメトリックおよびパラメトリックアプローチのアンカーとして、弱く拡張されたビューを使用して、強く拡張されたビューからの疑似ラベルの新しい信頼度を提示します。
特に、パラメトリック アプローチでは、エンド ツー エンドの方法でバックボーン モデルを使用して学習される、ネットワーク内の疑似ラベルの信頼度を学習することを初めて提示します。
また、トレーニングの収束性を高めるための段階別トレーニングも紹介します。
既存の半教師付き学習者に組み込むと、ConMatch は一貫してパフォーマンスを向上させます。
最新の方法に対する ConMatch の有効性を実証するための実験を行い、広範なアブレーション研究を提供します。
コードは https://github.com/JijonCocoder/ConMatch で公開されています。

要約(オリジナル)

We present a novel semi-supervised learning framework that intelligently leverages the consistency regularization between the model’s predictions from two strongly-augmented views of an image, weighted by a confidence of pseudo-label, dubbed ConMatch. While the latest semi-supervised learning methods use weakly- and strongly-augmented views of an image to define a directional consistency loss, how to define such direction for the consistency regularization between two strongly-augmented views remains unexplored. To account for this, we present novel confidence measures for pseudo-labels from strongly-augmented views by means of weakly-augmented view as an anchor in non-parametric and parametric approaches. Especially, in parametric approach, we present, for the first time, to learn the confidence of pseudo-label within the networks, which is learned with backbone model in an end-to-end manner. In addition, we also present a stage-wise training to boost the convergence of training. When incorporated in existing semi-supervised learners, ConMatch consistently boosts the performance. We conduct experiments to demonstrate the effectiveness of our ConMatch over the latest methods and provide extensive ablation studies. Code has been made publicly available at https://github.com/JiwonCocoder/ConMatch.

arxiv情報

著者 Jiwon Kim,Youngjo Min,Daehwan Kim,Gyuseong Lee,Junyoung Seo,Kwangrok Ryoo,Seungryong Kim
発行日 2022-09-19 11:00:54+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク