Contrastive Learning for Online Semi-Supervised General Continual Learning

要約

ラベルが欠落しているオンライン継続学習を研究し、部分的にラベル付けされたデータ用に設計された新しい対照的な損失であるセミコンを提案します。
メモリに追加されたすべてのデータがオラクルを使用してラベル付けされる、ラベルのないデータストリームでトレーニングされたメモリベースの方法を考案することにより、その効率を実証します。
私たちのアプローチは、利用可能なラベルがほとんどない場合、既存の半教師あり方法よりも優れており、Split-CIFAR10 でラベルの 2.6%、Split-CIFAR100 でラベルの 10% のみを使用しながら、最先端の教師あり方法と同様の結果を取得します。

要約(オリジナル)

We study Online Continual Learning with missing labels and propose SemiCon, a new contrastive loss designed for partly labeled data. We demonstrate its efficiency by devising a memory-based method trained on an unlabeled data stream, where every data added to memory is labeled using an oracle. Our approach outperforms existing semi-supervised methods when few labels are available, and obtain similar results to state-of-the-art supervised methods while using only 2.6% of labels on Split-CIFAR10 and 10% of labels on Split-CIFAR100.

arxiv情報

著者 Nicolas Michel,Romain Negrel,Giovanni Chierchia,Jean-François Bercher
発行日 2022-11-22 16:19:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク