要約
我々は、既知のクラスからのラベル付きデータに基づいて、教師なしで新しいクラスを学習することを目的とした、新しいクラスの発見の問題に取り組みます。
重要な課題は、既知のクラス データの知識を新しいクラスの学習に移すことにあります。
これまでの方法は、知識伝達のための共有表現空間の構築に主に焦点を当てており、クラス関係のモデリングを無視することがよくありました。
これに対処するために、既知のクラスでトレーニングされたモデルの予測クラス分布に基づいて、新しいクラスのクラス関係表現を導入します。
経験的に、このようなクラス関係は、典型的な発見トレーニング中にあまり有益ではなくなることがわかります。
このような情報損失を防ぐために、クラス関係表現を利用して新しいクラスの学習を規則化する新しい知識蒸留フレームワークを提案します。
さらに、新規クラスの各データポイントに対する柔軟な知識蒸留スキームを可能にするために、新規クラスと既知のクラス間の意味論的な類似性に基づいて知識伝達を適応的に促進する、正則化のための学習可能な重み付け関数を開発します。
私たちの手法の有効性と一般化を検証するために、CIFAR100、Stanford Cars、CUB、FGVC-Aircraft データセットを含む複数のベンチマークで広範な実験を実施しています。
私たちの結果は、提案された手法が、ほぼすべてのベンチマークで以前の最先端の手法を大幅に上回るパフォーマンスを示していることを示しています。
コードは \href{https://github.com/kleinzcy/Cr-KD-NCD}{こちら} で入手できます。
要約(オリジナル)
We tackle the problem of novel class discovery, which aims to learn novel classes without supervision based on labeled data from known classes. A key challenge lies in transferring the knowledge in the known-class data to the learning of novel classes. Previous methods mainly focus on building a shared representation space for knowledge transfer and often ignore modeling class relations. To address this, we introduce a class relation representation for the novel classes based on the predicted class distribution of a model trained on known classes. Empirically, we find that such class relation becomes less informative during typical discovery training. To prevent such information loss, we propose a novel knowledge distillation framework, which utilizes our class-relation representation to regularize the learning of novel classes. In addition, to enable a flexible knowledge distillation scheme for each data point in novel classes, we develop a learnable weighting function for the regularization, which adaptively promotes knowledge transfer based on the semantic similarity between the novel and known classes. To validate the effectiveness and generalization of our method, we conduct extensive experiments on multiple benchmarks, including CIFAR100, Stanford Cars, CUB, and FGVC-Aircraft datasets. Our results demonstrate that the proposed method outperforms the previous state-of-the-art methods by a significant margin on almost all benchmarks. Code is available at \href{https://github.com/kleinzcy/Cr-KD-NCD}{here}.
arxiv情報
著者 | Peiyan Gu,Chuyu Zhang,Ruijie Xu,Xuming He |
発行日 | 2023-08-25 13:59:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google