要約
クラスインクリメンタルな新規クラス検出(class-iNCD)の新しいタスクを研究します。これは、互いに素を含むラベル付きデータセットでトレーニングされた事前トレーニング済みモデルを利用して、ラベルなしデータセットで新規カテゴリを検出する問題を指します。
まだ関連するカテゴリ。
新しいクラスを発見することとは別に、以前に見た基本カテゴリを認識するモデルの能力を維持することも目指しています。
リハーサルベースのインクリメンタル学習手法に着想を得て、本論文では、基本クラスの特徴プロトタイプと特徴レベルの知識蒸留を共同で活用することにより、基本クラスに関する過去の情報の忘却を防ぐクラスiNCDの新しいアプローチを提案します。
また、新規カテゴリを同時にクラスタリングし、基本クラスと新規クラスの両方の共同分類器をトレーニングする自己トレーニングクラスタリング戦略を提案します。
これにより、メソッドはクラス増分設定で動作できるようになります。
3つの一般的なベンチマークで実施された実験は、私たちの方法が最先端のアプローチを大幅に上回っていることを示しています。
コードはhttps://github.com/OatmealLiu/class-iNCDで入手できます
要約(オリジナル)
We study the new task of class-incremental Novel Class Discovery (class-iNCD), which refers to the problem of discovering novel categories in an unlabelled data set by leveraging a pre-trained model that has been trained on a labelled data set containing disjoint yet related categories. Apart from discovering novel classes, we also aim at preserving the ability of the model to recognize previously seen base categories. Inspired by rehearsal-based incremental learning methods, in this paper we propose a novel approach for class-iNCD which prevents forgetting of past information about the base classes by jointly exploiting base class feature prototypes and feature-level knowledge distillation. We also propose a self-training clustering strategy that simultaneously clusters novel categories and trains a joint classifier for both the base and novel classes. This makes our method able to operate in a class-incremental setting. Our experiments, conducted on three common benchmarks, demonstrate that our method significantly outperforms state-of-the-art approaches. Code is available at https://github.com/OatmealLiu/class-iNCD
arxiv情報
著者 | Subhankar Roy,Mingxuan Liu,Zhun Zhong,Nicu Sebe,Elisa Ricci |
発行日 | 2022-07-18 13:49:27+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google