Consistent Prompting for Rehearsal-Free Continual Learning

要約

継続的な学習により、モデルは古い知識を忘れることなく、絶えず変化する環境やデータ ストリームに自律的に適応できるようになります。
プロンプトベースのアプローチは、タスク固有のプロンプトと分類子を効率的に学習するために、凍結された事前トレーニングされたモデルに基づいて構築されています。
既存のプロンプトベースの方法は、トレーニングとテストの間で一貫性がなく、その有効性が制限されています。
2 種類の矛盾が明らかになります。
テストの予測はすべての分類子から行われますが、トレーニングでは全体的な調整が行われずに現在のタスク分類子のみに焦点が当てられるため、分類子の不一致が生じます。
プロンプトの不一致は、テスト中に選択されたプロンプトが、トレーニング中にこのタスクに関連付けられたプロンプトに対応していない可能性があることを示します。
このペーパーでは、より調整されたトレーニングとテストのための、新しいプロンプトベースの方法である一貫したプロンプティング (CPrompt) を提案します。
具体的には、既存のすべての分類器がプロンプト トレーニングにさらされ、その結果、分類器の一貫性学習が行われます。
さらに、予測の堅牢性を強化し、プロンプト選択の精度を高めるために、プロンプト一貫性学習が提案されています。
当社の一貫したプロンプティングは、プロンプトベースの対応物を上回り、複数の継続的な学習ベンチマークで最先端のパフォーマンスを達成します。
詳細な分析により、改善はより一貫したトレーニングとテストによってもたらされることが示されています。

要約(オリジナル)

Continual learning empowers models to adapt autonomously to the ever-changing environment or data streams without forgetting old knowledge. Prompt-based approaches are built on frozen pre-trained models to learn the task-specific prompts and classifiers efficiently. Existing prompt-based methods are inconsistent between training and testing, limiting their effectiveness. Two types of inconsistency are revealed. Test predictions are made from all classifiers while training only focuses on the current task classifier without holistic alignment, leading to Classifier inconsistency. Prompt inconsistency indicates that the prompt selected during testing may not correspond to the one associated with this task during training. In this paper, we propose a novel prompt-based method, Consistent Prompting (CPrompt), for more aligned training and testing. Specifically, all existing classifiers are exposed to prompt training, resulting in classifier consistency learning. In addition, prompt consistency learning is proposed to enhance prediction robustness and boost prompt selection accuracy. Our Consistent Prompting surpasses its prompt-based counterparts and achieves state-of-the-art performance on multiple continual learning benchmarks. Detailed analysis shows that improvements come from more consistent training and testing.

arxiv情報

著者 Zhanxin Gao,Jun Cen,Xiaobin Chang
発行日 2024-03-14 12:26:17+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク