Self-Cooperation Knowledge Distillation for Novel Class Discovery

要約

新規クラス発見(NCD)は、既知のクラスについて既に学習された知識を活用することで、ラベル付けされていない集合から未知の新規クラスを発見することを目的としている。既存の研究では、インスタンスレベルまたはクラスレベルの知識表現に焦点を当て、性能向上を達成するために共有表現空間を構築している。しかし、長い間無視されてきた問題は、既知のクラスと新規のクラスからのサンプル数が不均衡になる可能性があり、モデルが支配的なクラスに押しやられてしまうことである。従って、これらの手法は、既知クラスのレビューと新規クラスの発見との間の困難なトレードオフに苦しんでいる。この観察に基づき、我々は、各トレーニングサンプル(既知か新規か、ラベル付きかラベルなしかを問わない)をレビューと発見の両方に利用する、自己協調知識蒸留(Self-Cooperation Knowledge Distillation: SCKD)手法を提案する。具体的には、既知クラスと新規クラスのモデルの特徴表現を用いて、2つの不連続な表現空間を構築する。空間的相互情報により、2つの特徴表現空間からモデルの学習を促す自己協調学習を設計する。6つのデータセットを用いた広範な実験により、我々の手法が大幅な性能向上を達成し、最先端の性能を達成できることを実証する。

要約(オリジナル)

Novel Class Discovery (NCD) aims to discover unknown and novel classes in an unlabeled set by leveraging knowledge already learned about known classes. Existing works focus on instance-level or class-level knowledge representation and build a shared representation space to achieve performance improvements. However, a long-neglected issue is the potential imbalanced number of samples from known and novel classes, pushing the model towards dominant classes. Therefore, these methods suffer from a challenging trade-off between reviewing known classes and discovering novel classes. Based on this observation, we propose a Self-Cooperation Knowledge Distillation (SCKD) method to utilize each training sample (whether known or novel, labeled or unlabeled) for both review and discovery. Specifically, the model’s feature representations of known and novel classes are used to construct two disjoint representation spaces. Through spatial mutual information, we design a self-cooperation learning to encourage model learning from the two feature representation spaces from itself. Extensive experiments on six datasets demonstrate that our method can achieve significant performance improvements, achieving state-of-the-art performance.

arxiv情報

著者 Yuzheng Wang,Zhaoyu Chen,Dingkang Yang,Yunquan Sun,Lizhe Qi
発行日 2024-07-03 14:51:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク