Class-Incremental Learning with Strong Pre-trained Models

要約

Class-Incremental Learning (CIL) は、少数のクラス (基本クラス) から始めるという設定で広く研究されています。
代わりに、多数の基本クラスで事前にトレーニングされた強力なモデルから始まる CIL の十分に研究されていない現実世界の設定を調査します。
強力な基本モデルは新しいクラスの適切な表現を提供でき、増分学習は小さな適応で行うことができるという仮説を立てています。
2 段階のトレーニング スキームを提案します。i) 機能増強 — バックボーンの一部を複製し、新規データで微調整すること、および ii) 融合 — 基本分類子と新規分類子を統合分類子に結合します。
実験では、提案された方法が大規模な ImageNet データセットで最先端の CIL 方法よりも大幅に優れていることが示されています (たとえば、最高の精度よりも +10% の全体的な精度)。
また、分布シフトを伴う基本小説の重複など、十分に研究されていない実用的な CIL シナリオを提案および分析します。
提案された方法は堅牢で、分析されたすべての CIL 設定に一般化されます。
コードは https://github.com/amazon-research/sp-cil で入手できます。

要約(オリジナル)

Class-incremental learning (CIL) has been widely studied under the setting of starting from a small number of classes (base classes). Instead, we explore an understudied real-world setting of CIL that starts with a strong model pre-trained on a large number of base classes. We hypothesize that a strong base model can provide a good representation for novel classes and incremental learning can be done with small adaptations. We propose a 2-stage training scheme, i) feature augmentation — cloning part of the backbone and fine-tuning it on the novel data, and ii) fusion — combining the base and novel classifiers into a unified classifier. Experiments show that the proposed method significantly outperforms state-of-the-art CIL methods on the large-scale ImageNet dataset (e.g. +10% overall accuracy than the best). We also propose and analyze understudied practical CIL scenarios, such as base-novel overlap with distribution shift. Our proposed method is robust and generalizes to all analyzed CIL settings. Code is available at https://github.com/amazon-research/sp-cil.

arxiv情報

著者 Tz-Ying Wu,Gurumurthy Swaminathan,Zhizhong Li,Avinash Ravichandran,Nuno Vasconcelos,Rahul Bhotika,Stefano Soatto
発行日 2022-09-12 17:59:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク