Large-scale Pre-trained Models are Surprisingly Strong in Incremental Novel Class Discovery

要約

ラベル付けされていないデータセットにおいて、継続的に新しい概念を発見することは、生涯学習者にとって重要な課題である。このような問題は、関連するラベル付きデータセットに共同でアクセスすることによって(例えばNCD)、あるいは教師ありの事前訓練モデルのみを活用することによって(例えばclass-iNCD)、新規クラスを学習するという、非常に限定された設定の下で部分的に対処されてきた。本研究では、class-iNCDの現状に挑戦し、関連するラベル付き集合を必要とせず、クラス発見が連続的かつ真に教師無しで行われる学習パラダイムを提案する。具体的には、強力な自己教師付き事前訓練モデル(PTM)から得られる豊富な事前分布を利用することを提案する。この目的のために、我々は、実装が単純であるだけでなく、より長い学習シナリオにも耐える、凍結されたPTMバックボーンと学習可能な線形分類器から構成される単純なベースラインを提案する。多数のベンチマークを用いた広範な実証評価を行い、洗練された最新の手法と比較した場合の提案するベースラインの有効性を示す。コードはオープンソースである。

要約(オリジナル)

Discovering novel concepts in unlabelled datasets and in a continuous manner is an important desideratum of lifelong learners. In the literature such problems have been partially addressed under very restricted settings, where novel classes are learned by jointly accessing a related labelled set (e.g., NCD) or by leveraging only a supervisedly pre-trained model (e.g., class-iNCD). In this work we challenge the status quo in class-iNCD and propose a learning paradigm where class discovery occurs continuously and truly unsupervisedly, without needing any related labelled set. In detail, we propose to exploit the richer priors from strong self-supervised pre-trained models (PTM). To this end, we propose simple baselines, composed of a frozen PTM backbone and a learnable linear classifier, that are not only simple to implement but also resilient under longer learning scenarios. We conduct extensive empirical evaluation on a multitude of benchmarks and show the effectiveness of our proposed baselines when compared with sophisticated state-of-the-art methods. The code is open source.

arxiv情報

著者 Mingxuan Liu,Subhankar Roy,Zhun Zhong,Nicu Sebe,Elisa Ricci
発行日 2024-07-03 17:36:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク