要約
密接な世界の仮定によって制約されている従来の半教師の学習パラダイムとは異なり、一般化されたカテゴリ発見(GCD)は、ラベル付けされたデータセットにはラベル付きセットに表示されない新しいカテゴリが含まれており、古いカテゴリを分類するだけでなく、不規則なデータで新しいカテゴリを発見することを目的としています。
GCDに関する既存の研究は、通常、部分的な調整や迅速な学習などのいくつかの微調整戦略を介して、自己監視された事前処理モデルからターゲットGCDタスクに一般的な知識を転送することに専念しています。
それにもかかわらず、これらの微調整方法は、前処理された骨格の一般化能力とGCDタスクへの適応性との間の健全なバランスをとることができません。
このギャップを埋めるために、このペーパーでは、AdaptGCDという名前の新しいアダプターチューニングベースの方法を提案します。これは、GCDタスクにアダプターのチューニングを導入する最初の作業であり、将来の研究を啓発することが期待される重要な洞察を提供します。
さらに、古いクラスと新しいクラスの間の監督情報の矛盾を考慮すると、ルート割り当ての制約を備えたマルチ専門家アダプター構造が精巧に考案されているため、古いクラスと新しいクラスからのデータが異なる専門家グループに分離されます。
広範な実験は、広く使用されている7つのデータセットで行われます。
パフォーマンスの顕著な改善は、私たちの提案の有効性を強調しています。
要約(オリジナル)
Different from the traditional semi-supervised learning paradigm that is constrained by the close-world assumption, Generalized Category Discovery (GCD) presumes that the unlabeled dataset contains new categories not appearing in the labeled set, and aims to not only classify old categories but also discover new categories in the unlabeled data. Existing studies on GCD typically devote to transferring the general knowledge from the self-supervised pretrained model to the target GCD task via some fine-tuning strategies, such as partial tuning and prompt learning. Nevertheless, these fine-tuning methods fail to make a sound balance between the generalization capacity of pretrained backbone and the adaptability to the GCD task. To fill this gap, in this paper, we propose a novel adapter-tuning-based method named AdaptGCD, which is the first work to introduce the adapter tuning into the GCD task and provides some key insights expected to enlighten future research. Furthermore, considering the discrepancy of supervision information between the old and new classes, a multi-expert adapter structure equipped with a route assignment constraint is elaborately devised, such that the data from old and new classes are separated into different expert groups. Extensive experiments are conducted on 7 widely-used datasets. The remarkable improvements in performance highlight the effectiveness of our proposals.
arxiv情報
著者 | Yuxun Qu,Yongqiang Tang,Chenyang Zhang,Wensheng Zhang |
発行日 | 2025-03-14 15:55:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google