Online-LoRA: Task-free Online Continual Learning via Low Rank Adaptation

要約

壊滅的な忘却は、オンライン継続学習 (OCL) において、特にタスク境界が明確に定義されていない非定常データ ストリームの場合、重大な課題です。
この課題は、リハーサル バッファーに固有のメモリの制約とプライバシーの問題によってさらに悪化します。
壊滅的な忘却に対処するために、このホワイトペーパーでは、タスクフリー OCL の新しいフレームワークである Online-LoRA を紹介します。
Online-LoRA を使用すると、事前トレーニングされたビジョン トランスフォーマー (ViT) モデルをリアルタイムで微調整して、リハーサル バッファーの制限に対処し、事前トレーニングされたモデルのパフォーマンス上の利点を活用できます。
主な貢献として、私たちのアプローチは、重要なモデルパラメータを特定して統合するための新しいオンライン重み正則化戦略を特徴としています。
さらに、Online-LoRA は損失値のトレーニング ダイナミクスを活用して、データ分布の変化の自動認識を可能にします。
多くのタスクフリー OCL シナリオとベンチマーク データセット (CIFAR-100、ImageNet-R、ImageNet-S、CUB-200、CORe50 を含む) にわたる広範な実験により、Online-LoRA がさまざまな ViT アーキテクチャに堅牢に適応できると同時に、より優れたパフォーマンスを実現できることが実証されました。
SOTAメソッドと比較して。
私たちのコードは https://github.com/Christina200/Online-LoRA-official.git で公開されます。

要約(オリジナル)

Catastrophic forgetting is a significant challenge in online continual learning (OCL), especially for non-stationary data streams that do not have well-defined task boundaries. This challenge is exacerbated by the memory constraints and privacy concerns inherent in rehearsal buffers. To tackle catastrophic forgetting, in this paper, we introduce Online-LoRA, a novel framework for task-free OCL. Online-LoRA allows to finetune pre-trained Vision Transformer (ViT) models in real-time to address the limitations of rehearsal buffers and leverage pre-trained models’ performance benefits. As the main contribution, our approach features a novel online weight regularization strategy to identify and consolidate important model parameters. Moreover, Online-LoRA leverages the training dynamics of loss values to enable the automatic recognition of the data distribution shifts. Extensive experiments across many task-free OCL scenarios and benchmark datasets (including CIFAR-100, ImageNet-R, ImageNet-S, CUB-200 and CORe50) demonstrate that Online-LoRA can be robustly adapted to various ViT architectures, while achieving better performance compared to SOTA methods. Our code will be publicly available at: https://github.com/Christina200/Online-LoRA-official.git.

arxiv情報

著者 Xiwen Wei,Guihong Li,Radu Marculescu
発行日 2024-11-08 16:04:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク