Adaptive Adapter Routing for Long-Tailed Class-Incremental Learning

要約

進化し続ける世界では、電子商取引プラットフォームのレビューなど、新しいデータは長い尾の分布を示します。
これには、不均衡なデータを忘れることなく継続的にモデル学習し、ロングテールクラス増分学習 (LTCIL) の課題に対処する必要があります。
既存の手法は、以前のデータを使用して線形分類器を再トレーニングすることに依存していることが多く、これは現実世界の設定では非現実的です。
このペーパーでは、事前トレーニングされたモデルの強力な表現機能を活用し、LTCIL 用のイグザンプラフリーのソリューションとして Adaptive Adaptor Routing (APART) を紹介します。
忘却に対処するために、より深く適応するために凍結された事前トレーニング済みの重みを使用して挿入されたアダプターをトレーニングし、逐次モデル更新中に選択できるアダプターのプールを維持します。
さらに、特に少数派クラスでの効果的な一般化のために設計された補助アダプター プールを紹介します。
これらのプールにわたる適応型インスタンス ルーティングは重要な相関関係を捕捉し、すべてのクラスの包括的な表現を容易にします。
その結果、APART は統一された枠組みの中で不均衡の問題と壊滅的な忘却の問題に取り組んでいます。
広範なベンチマーク実験により、APART の有効性が検証されています。
コードはhttps://github.com/vita-qzh/APARTから入手できます。

要約(オリジナル)

In our ever-evolving world, new data exhibits a long-tailed distribution, such as e-commerce platform reviews. This necessitates continuous model learning imbalanced data without forgetting, addressing the challenge of long-tailed class-incremental learning (LTCIL). Existing methods often rely on retraining linear classifiers with former data, which is impractical in real-world settings. In this paper, we harness the potent representation capabilities of pre-trained models and introduce AdaPtive Adapter RouTing (APART) as an exemplar-free solution for LTCIL. To counteract forgetting, we train inserted adapters with frozen pre-trained weights for deeper adaptation and maintain a pool of adapters for selection during sequential model updates. Additionally, we present an auxiliary adapter pool designed for effective generalization, especially on minority classes. Adaptive instance routing across these pools captures crucial correlations, facilitating a comprehensive representation of all classes. Consequently, APART tackles the imbalance problem as well as catastrophic forgetting in a unified framework. Extensive benchmark experiments validate the effectiveness of APART. Code is available at: https://github.com/vita-qzh/APART

arxiv情報

著者 Zhi-Hong Qi,Da-Wei Zhou,Yiran Yao,Han-Jia Ye,De-Chuan Zhan
発行日 2024-09-11 17:52:00+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク