Open-world Semi-supervised Novel Class Discovery

要約

従来の半教師あり学習タスクは、ラベル付きデータとラベルなしデータの両方が同じクラス分布に従うことを前提としていますが、現実的なオープンワールドのシナリオは、ラベルなしセットに未知の新規クラスが混在するため、より複雑になります。
したがって、既知のクラスのサンプルを認識するだけでなく、ラベルのないデータ内の未知の数の新規クラスを発見することは大きな課題です。
この論文では、OpenNCD と呼ばれる新しいオープンワールドの半教師ありの新しいクラス発見アプローチを紹介します。これは、複数のプロトタイプにわたる漸進的な 2 レベルの対比学習方法です。
提案手法は 2 つの相互に強化された部分から構成されます。
まず、バイレベル対比学習法が導入されます。これにより、プロトタイプとプロトタイプ グループ レベルのペアごとの類似性が維持され、表現学習が向上します。
次に、共通の代表インスタンスに基づいて、信頼できるプロトタイプの類似性メトリックが提案されます。
類似性の高いプロトタイプは、既知のクラス認識と新規クラスの発見のために段階的にグループ化されます。
3 つの画像データセットに対して広範な実験が行われ、その結果は、オープンワールドのシナリオ、特に既知のクラスとラベルが希少な場合における、提案された方法の有効性を示しています。

要約(オリジナル)

Traditional semi-supervised learning tasks assume that both labeled and unlabeled data follow the same class distribution, but the realistic open-world scenarios are of more complexity with unknown novel classes mixed in the unlabeled set. Therefore, it is of great challenge to not only recognize samples from known classes but also discover the unknown number of novel classes within the unlabeled data. In this paper, we introduce a new open-world semi-supervised novel class discovery approach named OpenNCD, a progressive bi-level contrastive learning method over multiple prototypes. The proposed method is composed of two reciprocally enhanced parts. First, a bi-level contrastive learning method is introduced, which maintains the pair-wise similarity of the prototypes and the prototype group levels for better representation learning. Then, a reliable prototype similarity metric is proposed based on the common representing instances. Prototypes with high similarities will be grouped progressively for known class recognition and novel class discovery. Extensive experiments on three image datasets are conducted and the results show the effectiveness of the proposed method in open-world scenarios, especially with scarce known classes and labels.

arxiv情報

著者 Jiaming Liu,Yangqiming Wang,Tongze Zhang,Yulu Fan,Qinli Yang,Junming Shao
発行日 2023-05-22 14:59:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク