Dynamic Conceptional Contrastive Learning for Generalized Category Discovery

要約

一般化されたカテゴリの発見 (GCD) は、最近提案されたオープン ワールドの問題であり、部分的にラベル付けされたデータを自動的にクラスター化することを目的としています。
主な課題は、ラベル付けされていないデータに、ラベル付けされたデータの既知のカテゴリからだけでなく、新しいカテゴリからのインスタンスが含まれていることです。
これにより、従来の新規カテゴリ発見 (NCD) メソッドは、ラベル付けされていないデータは新規カテゴリのみからのものであると想定されているため、GCD に対して無力になります。
GCD の効果的な方法の 1 つは、自己教師あり学習を適用して、ラベルのないデータの識別表現を学習することです。
ただし、この方法では、同じ概念のインスタンス間の基本的な関係 (クラス、スーパークラス、サブクラスなど) がほとんど無視されるため、表現学習が劣ります。
この論文では、根底にある視覚的概念の推定と概念的表現の学習を交互に行うことにより、クラスタリングの精度を効果的に向上させることができる動的概念対照学習(DCCL)フレームワークを提案します。
さらに、動的な概念生成および更新メカニズムを設計します。これにより、一貫した概念学習が保証され、DCCL の最適化がさらに促進されます。
広範な実験により、DCCL が 6 つの一般的で細粒度の視覚認識データセット、特に細粒度の視覚認識データセットで新しい最先端のパフォーマンスを達成することが示されています。
たとえば、私たちの方法は、CUB-200 データセットの新しいクラスで、最高の競合他社を 16.2% 大幅に上回っています。
コードは https://github.com/TPCD/DCCL で入手できます。

要約(オリジナル)

Generalized category discovery (GCD) is a recently proposed open-world problem, which aims to automatically cluster partially labeled data. The main challenge is that the unlabeled data contain instances that are not only from known categories of the labeled data but also from novel categories. This leads traditional novel category discovery (NCD) methods to be incapacitated for GCD, due to their assumption of unlabeled data are only from novel categories. One effective way for GCD is applying self-supervised learning to learn discriminate representation for unlabeled data. However, this manner largely ignores underlying relationships between instances of the same concepts (e.g., class, super-class, and sub-class), which results in inferior representation learning. In this paper, we propose a Dynamic Conceptional Contrastive Learning (DCCL) framework, which can effectively improve clustering accuracy by alternately estimating underlying visual conceptions and learning conceptional representation. In addition, we design a dynamic conception generation and update mechanism, which is able to ensure consistent conception learning and thus further facilitate the optimization of DCCL. Extensive experiments show that DCCL achieves new state-of-the-art performances on six generic and fine-grained visual recognition datasets, especially on fine-grained ones. For example, our method significantly surpasses the best competitor by 16.2% on the new classes for the CUB-200 dataset. Code is available at https://github.com/TPCD/DCCL.

arxiv情報

著者 Nan Pu,Zhun Zhong,Nicu Sebe
発行日 2023-03-30 14:04:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク