Contrastive Learning for Online Semi-Supervised General Continual Learning

要約

ラベルが欠落しているオンライン継続学習を研究し、部分的にラベル付けされたデータ用に設計された新しい対照損失であるSemiConを提案します。
ラベルなしのデータストリームでトレーニングされたメモリベースの方法を考案することで、その効率を実証します。メモリに追加されたすべてのデータは、オラクルを使用してラベル付けされます。
私たちのアプローチは、使用可能なラベルが少ない場合に既存の半教師あり手法よりも優れており、Split-CIFAR10では2.6%、Split-CIFAR100では10%のラベルしか使用せずに、最先端の監視あり手法と同様の結果が得られます。

要約(オリジナル)

We study Online Continual Learning with missing labels and propose SemiCon, a new contrastive loss designed for partly labeled data. We demonstrate its efficiency by devising a memory-based method trained on an unlabeled data stream, where every data added to memory is labeled using an oracle. Our approach outperforms existing semi-supervised methods when few labels are available, and obtain similar results to state-of-the-art supervised methods while using only 2.6% of labels on Split-CIFAR10 and 10% of labels on Split-CIFAR100.

arxiv情報

著者 Nicolas Michel,Romain Negrel,Giovanni Chierchia,Jean-François Bercher
発行日 2022-07-12 15:32:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク