Elastic Feature Consolidation for Cold Start Exemplar-free Incremental Learning

要約

Exemplar-Free Class Incremental Learning (EFCIL) は、前のタスク データにアクセスせずに、一連のタスクから学習することを目的としています。
このペーパーでは、高品質のバックボーンを学習するための最初のタスクで使用できるデータが不十分な、困難なコールド スタート シナリオを検討します。
EFCIL では高い可塑性が必要となるため、これは特に困難であり、その結果、見本なしの設定では補償するのが難しい特徴のドリフトが発生します。
この問題に対処するために、以前のタスクに関連性の高い方向へのドリフトを正規化することで特徴表現を統合し、プロトタイプを使用してタスクの最新性バイアスを低減する、シンプルで効果的なアプローチを提案します。
Elastic Feature Consolidation (EFC) と呼ばれる私たちの方法は、経験的特徴行列 (EFM) に基づいた特徴ドリフトの扱いやすい 2 次近似を利用します。
EFM は、特徴空間に擬似計量を導入します。これを使用して、重要な方向の特徴ドリフトを正規化し、プロトタイプのリハーサルと新しいタスクからのデータのバランスを効果的に調整する新しい非対称クロスエントロピー損失で使用されるガウス プロトタイプを更新します。
CIFAR-100、Tiny-ImageNet、ImageNet-Subset、および ImageNet-1K の実験結果は、Elastic Feature Consolidation がモデルの可塑性を維持することで新しいタスクをよりよく学習でき、最先端のパフォーマンスを大幅に上回ることを示しています。

要約(オリジナル)

Exemplar-Free Class Incremental Learning (EFCIL) aims to learn from a sequence of tasks without having access to previous task data. In this paper, we consider the challenging Cold Start scenario in which insufficient data is available in the first task to learn a high-quality backbone. This is especially challenging for EFCIL since it requires high plasticity, which results in feature drift which is difficult to compensate for in the exemplar-free setting. To address this problem, we propose a simple and effective approach that consolidates feature representations by regularizing drift in directions highly relevant to previous tasks and employs prototypes to reduce task-recency bias. Our method, called Elastic Feature Consolidation (EFC), exploits a tractable second-order approximation of feature drift based on an Empirical Feature Matrix (EFM). The EFM induces a pseudo-metric in feature space which we use to regularize feature drift in important directions and to update Gaussian prototypes used in a novel asymmetric cross entropy loss which effectively balances prototype rehearsal with data from new tasks. Experimental results on CIFAR-100, Tiny-ImageNet, ImageNet-Subset and ImageNet-1K demonstrate that Elastic Feature Consolidation is better able to learn new tasks by maintaining model plasticity and significantly outperform the state-of-the-art.

arxiv情報

著者 Simone Magistri,Tomaso Trinci,Albin Soutif-Cormerais,Joost van de Weijer,Andrew D. Bagdanov
発行日 2024-02-06 11:35:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク