要約
オープンワールド学習の有望な分野として、 \textit{Novel Class Discovery} (NCD) は通常、同じドメイン内のラベル付きデータの事前知識に基づいて、ラベルなしのセット内のまだ見たことのない新しいクラスをクラスター化するタスクです。
ただし、ラベル付きクラスとは異なる分布から新しいクラスがサンプリングされる場合、既存の NCD メソッドのパフォーマンスが大幅に損なわれる可能性があります。
この論文では、スタイル情報を削除する必要があるという必要条件を使用して、クロスドメイン設定における NCD の解決可能性を調査し、確立します。
理論的分析に基づいて、ベースラインの特徴とは異なるスタイル情報を抽出するための専用のスタイル除去モジュールを導入し、それによって推論を容易にします。
さらに、このモジュールは他の NCD メソッドと簡単に統合でき、表示されているラベル付きセットと比較して異なる分布を持つ新しいクラスのパフォーマンスを向上させるプラグインとして機能します。
さらに、さまざまなバックボーンや事前トレーニング戦略が NCD メソッドのパフォーマンスに与える無視できない影響を認識し、将来の NCD 研究のための公正なベンチマークを構築します。
3 つの一般的なデータセットに対する広範な実験により、私たちが提案したモジュールの有効性が実証されました。
要約(オリジナル)
As a promising field in open-world learning, \textit{Novel Class Discovery} (NCD) is usually a task to cluster unseen novel classes in an unlabeled set based on the prior knowledge of labeled data within the same domain. However, the performance of existing NCD methods could be severely compromised when novel classes are sampled from a different distribution with the labeled ones. In this paper, we explore and establish the solvability of NCD in cross domain setting with the necessary condition that style information must be removed. Based on the theoretical analysis, we introduce an exclusive style removal module for extracting style information that is distinctive from the baseline features, thereby facilitating inference. Moreover, this module is easy to integrate with other NCD methods, acting as a plug-in to improve performance on novel classes with different distributions compared to the seen labeled set. Additionally, recognizing the non-negligible influence of different backbones and pre-training strategies on the performance of the NCD methods, we build a fair benchmark for future NCD research. Extensive experiments on three common datasets demonstrate the effectiveness of our proposed module.
arxiv情報
著者 | Yicheng Wang,Feng Liu,Junmin Liu,Kai Sun |
発行日 | 2024-09-13 11:36:49+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google