Clustering-based Domain-Incremental Learning

要約

さまざまなタスクからのデータがストリーミング形式で学習者に提示される継続的な学習環境で複数のタスクを学習する問題を検討します。
この設定における重要な課題は、いわゆる「壊滅的な忘却問題」です。これは、「古いタスク」での学習者のパフォーマンスが、その後「新しいタスク」でトレーニングされると低下するというものです。
平均勾配エピソード記憶 (A-GEM) や直交勾配降下法 (OGD) などの既存の継続学習手法は、以前のタスクの損失を増やすことなく、現在のタスクの損失を最小限に抑えることで壊滅的な忘却に対処します。
ただし、これらの方法は、学習者がタスクがいつ変更されるかを知っていることを前提としていますが、実際には非現実的です。
この論文では、動的に更新されるサンプルまたは勾配の有限プールに対してオンライン クラスタリング ベースのアプローチを使用することで、アルゴリズムにタスクの変更に関する情報を提供する必要性を軽減します。
これにより、最も困難な設定の 1 つであるドメイン増分学習という、これまで問題が解決されていなかった設定において、壊滅的な忘却を防ぐことに成功しました。
これらのアイデアを A-GEM や OGD などの投影ベースの手法に適用することで、アプローチの利点を示します。これらの手法のタスクに依存しないバージョンが実現します。
実際のデータセットでの実験により、提案された戦略の有効性と、最先端の方法と比較したその有望なパフォーマンスが実証されています。

要約(オリジナル)

We consider the problem of learning multiple tasks in a continual learning setting in which data from different tasks is presented to the learner in a streaming fashion. A key challenge in this setting is the so-called ‘catastrophic forgetting problem’, in which the performance of the learner in an ‘old task’ decreases when subsequently trained on a ‘new task’. Existing continual learning methods, such as Averaged Gradient Episodic Memory (A-GEM) and Orthogonal Gradient Descent (OGD), address catastrophic forgetting by minimizing the loss for the current task without increasing the loss for previous tasks. However, these methods assume the learner knows when the task changes, which is unrealistic in practice. In this paper, we alleviate the need to provide the algorithm with information about task changes by using an online clustering-based approach on a dynamically updated finite pool of samples or gradients. We thereby successfully counteract catastrophic forgetting in one of the hardest settings, namely: domain-incremental learning, a setting for which the problem was previously unsolved. We showcase the benefits of our approach by applying these ideas to projection-based methods, such as A-GEM and OGD, which lead to task-agnostic versions of them. Experiments on real datasets demonstrate the effectiveness of the proposed strategy and its promising performance compared to state-of-the-art methods.

arxiv情報

著者 Christiaan Lamers,Rene Vidal,Nabil Belbachir,Niki van Stein,Thomas Baeck,Paris Giampouras
発行日 2023-09-21 13:49:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク