Prior-Free Continual Learning with Unlabeled Data in the Wild

要約

継続学習 (CL) は、取得した古いタスクの知識を忘れることなく、新しいタスクでトレーニングされたモデルを段階的に更新することを目的としています。
既存の CL 手法は通常、タスク事前設定、つまりモデルのトレーニングにタスク ID または以前に確認されたサンプルのサブセットを使用して、忘却を減らします。
ただし、これらの方法は、現実のアプリケーションでは事前確率が不明な場合には実行できません。
この基本的だがほとんど研究されていない問題に対処するために、タスクのアイデンティティや以前のデータを知らなくても新しいタスクを学習する事前自由継続学習 (PFCL) 手法を提案します。
まず、固定シングルヘッド アーキテクチャに基づいて、タスク固有の出力ヘッドを選択するためのタスク ID の必要性を排除します。
2 番目に、新しいモデルと古いモデルの間で一貫した予測を行うために正則化ベースの戦略を採用し、以前のサンプルを再検討することを回避します。
ただし、この戦略を単独で使用すると、クラス増分シナリオ、特に長い一連のタスクのパフォーマンスが低下することがよくあります。
従来の正則化ベースの手法の有効性と限界を分析することにより、追加のラベルなしデータセットとのモデルの一貫性を強化することを提案します。
さらに、一部の補助データはパフォーマンスを低下させる可能性があるため、一貫したパフォーマンスの向上を実現するために、信頼性の高いサンプル選択戦略をさらに開発します。
複数の画像分類ベンチマーク データセットに対する広範な実験により、PFCL メソッドが 3 つの学習シナリオすべてで物忘れを大幅に軽減することが示されました。
さらに、限られた数の以前のサンプルを再生する最新のリハーサルベースの方法と比較すると、PFCL は競合する精度を実現します。
コードは https://github.com/visiontao/pfcl から入手できます。

要約(オリジナル)

Continual Learning (CL) aims to incrementally update a trained model on new tasks without forgetting the acquired knowledge of old ones. Existing CL methods usually reduce forgetting with task priors, \ie using task identity or a subset of previously seen samples for model training. However, these methods would be infeasible when such priors are unknown in real-world applications. To address this fundamental but seldom-studied problem, we propose a Prior-Free Continual Learning (PFCL) method, which learns new tasks without knowing the task identity or any previous data. First, based on a fixed single-head architecture, we eliminate the need for task identity to select the task-specific output head. Second, we employ a regularization-based strategy for consistent predictions between the new and old models, avoiding revisiting previous samples. However, using this strategy alone often performs poorly in class-incremental scenarios, particularly for a long sequence of tasks. By analyzing the effectiveness and limitations of conventional regularization-based methods, we propose enhancing model consistency with an auxiliary unlabeled dataset additionally. Moreover, since some auxiliary data may degrade the performance, we further develop a reliable sample selection strategy to obtain consistent performance improvement. Extensive experiments on multiple image classification benchmark datasets show that our PFCL method significantly mitigates forgetting in all three learning scenarios. Furthermore, when compared to the most recent rehearsal-based methods that replay a limited number of previous samples, PFCL achieves competitive accuracy. Our code is available at: https://github.com/visiontao/pfcl

arxiv情報

著者 Tao Zhuo,Zhiyong Cheng,Hehe Fan,Mohan Kankanhalli
発行日 2023-10-16 13:59:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク