Exploiting Fine-Grained Prototype Distribution for Boosting Unsupervised Class Incremental Learning

要約

オープンワールド シナリオの動的な性質により、クラス増分学習 (CIL) がより注目されています。
ただし、既存の CIL 手法は通常、トレーニング プロセス全体を通じて完全なグラウンドトゥルース ラベルが利用できることを前提としていますが、実際のアプリケーションではこの前提が満たされることはほとんどありません。
したがって、この論文では、教師なしクラス増分学習 (UCIL) のより困難な問題を検討します。
この問題に対処する本質は、包括的な特徴表現を効果的に捕捉し、未知の新規クラスを発見することにあります。
これを達成するために、最初に、きめの細かいプロトタイプを活用して、クラス分布の知識をモデル化します。
その後、教師なしクラスの発見を強化するために粒度調整技術が導入されました。
さらに、新規クラスと既存クラス間の重複を最小限に抑え、それによって歴史的知識を保存し、壊滅的な忘却現象を軽減する戦略を提案しました。
5 つのデータセットに対する広範な実験により、私たちのアプローチが現在の最先端の方法を大幅に上回ることが実証され、提案された方法の有効性が示されています。

要約(オリジナル)

The dynamic nature of open-world scenarios has attracted more attention to class incremental learning (CIL). However, existing CIL methods typically presume the availability of complete ground-truth labels throughout the training process, an assumption rarely met in practical applications. Consequently, this paper explores a more challenging problem of unsupervised class incremental learning (UCIL). The essence of addressing this problem lies in effectively capturing comprehensive feature representations and discovering unknown novel classes. To achieve this, we first model the knowledge of class distribution by exploiting fine-grained prototypes. Subsequently, a granularity alignment technique is introduced to enhance the unsupervised class discovery. Additionally, we proposed a strategy to minimize overlap between novel and existing classes, thereby preserving historical knowledge and mitigating the phenomenon of catastrophic forgetting. Extensive experiments on the five datasets demonstrate that our approach significantly outperforms current state-of-the-art methods, indicating the effectiveness of the proposed method.

arxiv情報

著者 Jiaming Liu,Hongyuan Liu,Zhili Qin,Wei Han,Yulu Fan,Qinli Yang,Junming Shao
発行日 2024-08-19 14:38:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク