New Insights on Relieving Task-Recency Bias for Online Class Incremental Learning

要約

人間の学習を続ける能力を模倣するために、終わりのないデータストリームから学習できる継続的な学習が最近注目されています。
すべての設定において、データ ストリームからの受信サンプルを 1 回しか使用できないオンライン クラスのインクリメンタル ラーニング (CIL) は、より困難であり、現実の世界でより頻繁に遭遇する可能性があります。
実際、CIL は安定性と可塑性のジレンマに直面しています。安定性とは古い知識を保存する能力を意味し、可塑性とは新しい知識を組み込む能力を意味します。
リプレイベースの方法は非常に有望ですが、それらのほとんどは、可塑性を犠牲にして安定性を維持するためにメモリを更新および取得する戦略に集中しています。
安定性と可塑性の間の望ましいトレードオフを実現するために、モデル学習におけるあいまいなサンプルと非ターゲット ロジットに焦点を動的に調整する Adaptive Focus Shifting アルゴリズム (AFS) を提案します。
クラスの不均衡によって引き起こされるタスク最新性バイアスの詳細な分析を通じて、主に安定性を維持するために改訂された焦点損失を提案します。
新しい重み関数を利用することにより、改訂された焦点損失は、現在のあいまいなサンプルにより多くの注意を払うことができ、分類境界のより多くの情報を提供できます。
可塑性を促進するために、仮想知識の蒸留を導入します。
仮想教師を設計することで、対象外のクラスにより多くの注意を向けることができます。これにより、自信過剰を克服し、モデルがクラス間の情報に集中するように促すことができます。
CIL の 3 つの一般的なデータセットでの広範な実験により、AFS の有効性が示されました。
コードは \url{https://github.com/czjghost/AFS} で入手できます。

要約(オリジナル)

To imitate the ability of keeping learning of human, continual learning which can learn from a never-ending data stream has attracted more interests recently. In all settings, the online class incremental learning (CIL), where incoming samples from data stream can be used only once, is more challenging and can be encountered more frequently in real world. Actually, the CIL faces a stability-plasticity dilemma, where the stability means the ability to preserve old knowledge while the plasticity denotes the ability to incorporate new knowledge. Although replay-based methods have shown exceptional promise, most of them concentrate on the strategy for updating and retrieving memory to keep stability at the expense of plasticity. To strike a preferable trade-off between stability and plasticity, we propose a Adaptive Focus Shifting algorithm (AFS), which dynamically adjusts focus to ambiguous samples and non-target logits in model learning. Through a deep analysis of the task-recency bias caused by class imbalance, we propose a revised focal loss to mainly keep stability. By utilizing a new weight function, the revised focal loss can pay more attention to current ambiguous samples, which can provide more information of the classification boundary. To promote plasticity, we introduce a virtual knowledge distillation. By designing a virtual teacher, it assigns more attention to non-target classes, which can surmount overconfidence and encourage model to focus on inter-class information. Extensive experiments on three popular datasets for CIL have shown the effectiveness of AFS. The code will be available at \url{https://github.com/czjghost/AFS}.

arxiv情報

著者 Guoqiang Liang,Zhaojie Chen,Zhaoqiang Chen,Shiyu Ji,Yanning Zhang
発行日 2023-02-16 11:52:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク