FeCAM: Exploiting the Heterogeneity of Class Distributions in Exemplar-Free Continual Learning

要約

見本なしのクラス増分学習 (CIL) では、以前のタスクからのデータのリハーサルが禁止されているため、致命的な忘却が発生するため、いくつかの課題が生じます。
最初のタスクの後に特徴抽出器をフリーズすることによって分類器を段階的に学習する最近のアプローチが多くの注目を集めています。
この論文では、CIL のプロトタイプ ネットワークについて調査します。このネットワークは、凍結特徴抽出機能を使用して新しいクラス プロトタイプを生成し、プロトタイプまでのユークリッド距離に基づいて特徴を分類します。
クラスの特徴分布の分析では、ユークリッド指標に基づく分類が共同トレーニングされた特徴に対して成功することを示します。
ただし、非定常データから学習する場合、ユークリッド計量が最適ではなく、特徴分布が不均一であることが観察されます。
この課題に対処するために、CIL の異方性マハラノビス距離を再検討します。
さらに、特徴の共分散関係をモデル化することは、正規分布から特徴をサンプリングして線形分類器をトレーニングする以前の試みよりも優れていることを経験的に示しています。
既存の方法とは異なり、私たちのアプローチは、多ショットと少数ショットの CIL 設定、およびドメイン増分設定の両方に一般化されています。
興味深いことに、バックボーン ネットワークを更新せずに、私たちの方法はいくつかの標準的な継続学習ベンチマークで最先端の結果を取得します。
コードは https://github.com/dipamgoswami/FeCAM で入手できます。

要約(オリジナル)

Exemplar-free class-incremental learning (CIL) poses several challenges since it prohibits the rehearsal of data from previous tasks and thus suffers from catastrophic forgetting. Recent approaches to incrementally learning the classifier by freezing the feature extractor after the first task have gained much attention. In this paper, we explore prototypical networks for CIL, which generate new class prototypes using the frozen feature extractor and classify the features based on the Euclidean distance to the prototypes. In an analysis of the feature distributions of classes, we show that classification based on Euclidean metrics is successful for jointly trained features. However, when learning from non-stationary data, we observe that the Euclidean metric is suboptimal and that feature distributions are heterogeneous. To address this challenge, we revisit the anisotropic Mahalanobis distance for CIL. In addition, we empirically show that modeling the feature covariance relations is better than previous attempts at sampling features from normal distributions and training a linear classifier. Unlike existing methods, our approach generalizes to both many- and few-shot CIL settings, as well as to domain-incremental settings. Interestingly, without updating the backbone network, our method obtains state-of-the-art results on several standard continual learning benchmarks. Code is available at https://github.com/dipamgoswami/FeCAM.

arxiv情報

著者 Dipam Goswami,Yuyang Liu,Bartłomiej Twardowski,Joost van de Weijer
発行日 2024-01-12 15:35:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク