要約
継続的な学習により、以前に学習したタスクを忘れることなく、新しいタスクを段階的に学習できます。その結果、新しいタスクと古いタスクの両方でパフォーマンスを向上させる積極的な知識の伝達が実現します。
ただし、継続的な学習は、モデル予測の背後にある理論的根拠が時間の経過とともに変化し、解釈可能性の概念のドリフトにつながる可能性があるため、解釈可能性に新たな課題をもたらします。
この問題に対処するために、Interpretable Class-InCremental LEarning (ICICLE) を提案します。
それは 3 つの重要な新規性から成ります。
きめの細かい設定専用の近接ベースのプロトタイプ初期化戦略。
プロトタイプ部品に特化したタスク最新性バイアス補償。
私たちの実験結果は、概念ベースのモデルに適用された場合、ICICLE が解釈可能性の概念のドリフトを減らし、一般的なクラス増分学習の既存の見本のない方法よりも優れていることを示しています。
コードを利用できるようにします。
要約(オリジナル)
Continual learning enables incremental learning of new tasks without forgetting those previously learned, resulting in positive knowledge transfer that can enhance performance on both new and old tasks. However, continual learning poses new challenges for interpretability, as the rationale behind model predictions may change over time, leading to interpretability concept drift. We address this problem by proposing Interpretable Class-InCremental LEarning (ICICLE), an exemplar-free approach that adopts a prototypical part-based approach. It consists of three crucial novelties: interpretability regularization that distills previously learned concepts while preserving user-friendly positive reasoning; proximity-based prototype initialization strategy dedicated to the fine-grained setting; and task-recency bias compensation devoted to prototypical parts. Our experimental results demonstrate that ICICLE reduces the interpretability concept drift and outperforms the existing exemplar-free methods of common class-incremental learning when applied to concept-based models. We make the code available.
arxiv情報
著者 | Dawid Rymarczyk,Joost van de Weijer,Bartosz Zieliński,Bartłomiej Twardowski |
発行日 | 2023-03-14 11:31:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google