OVOR: OnePrompt with Virtual Outlier Regularization for Rehearsal-Free Class-Incremental Learning

要約

最近の研究では、学習可能なプロンプトとともに大規模な事前トレーニング済みモデルを使用することで、クラス増分学習 (CIL) 設定のためのリハーサル不要の方法が、著名なリハーサルベースの方法よりも優れたパフォーマンスを達成できることが示されています。
リハーサル不要の CIL メソッドは、クラスが一緒にトレーニングされていないため、クラスとさまざまなタスクを区別するのに苦労します。
この研究では、異なるタスク間でのクラスの混乱が軽減されるように、分類子の決定境界を厳格化するための仮想外れ値に基づく正則化方法を提案します。
最近のプロンプトベースの方法では、以前のタスクの知識が新しいタスクの知識で上書きされ、プールから適切なプロンプトをクエリおよび作成する際に余分な計算が発生することを防ぐために、タスク固有のプロンプトのプールが必要になることがよくあります。
論文で明らかにしたように、この追加コストは精度を犠牲にすることなく排除できます。
簡略化されたプロンプトベースの手法は、学習可能なパラメーターがはるかに少なく、推論コストが低いため、プロンプト プールを備えた以前の最先端 (SOTA) 手法と同等の結果を達成できることを示します。
私たちの正則化手法は、さまざまなプロンプトベースの手法との互換性を実証しており、ImageNet-R および CIFAR-100 ベンチマークにおける以前の SOTA リハーサル不要の CIL 手法の精度を向上させています。
私たちのソースコードは https://github.com/jpmorganchase/ovor で入手できます。

要約(オリジナル)

Recent works have shown that by using large pre-trained models along with learnable prompts, rehearsal-free methods for class-incremental learning (CIL) settings can achieve superior performance to prominent rehearsal-based ones. Rehearsal-free CIL methods struggle with distinguishing classes from different tasks, as those are not trained together. In this work we propose a regularization method based on virtual outliers to tighten decision boundaries of the classifier, such that confusion of classes among different tasks is mitigated. Recent prompt-based methods often require a pool of task-specific prompts, in order to prevent overwriting knowledge of previous tasks with that of the new task, leading to extra computation in querying and composing an appropriate prompt from the pool. This additional cost can be eliminated, without sacrificing accuracy, as we reveal in the paper. We illustrate that a simplified prompt-based method can achieve results comparable to previous state-of-the-art (SOTA) methods equipped with a prompt pool, using much less learnable parameters and lower inference cost. Our regularization method has demonstrated its compatibility with different prompt-based methods, boosting those previous SOTA rehearsal-free CIL methods’ accuracy on the ImageNet-R and CIFAR-100 benchmarks. Our source code is available at https://github.com/jpmorganchase/ovor.

arxiv情報

著者 Wei-Cheng Huang,Chun-Fu Chen,Hsiang Hsu
発行日 2024-02-06 16:31:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク