Sample Condensation in Online Continual Learning

要約

オンライン継続学習は、各サンプルが1回だけ表示される非定常データストリームからモデルを学習する必要がある、やりがいのある学習シナリオです。
主な課題は、壊滅的な忘却、つまり、新しいデータから学習する際に以前に取得した知識を忘れるという問題を回避しながら、段階的に学習することです。
これらのシナリオでよくある解決策は、小さなメモリを使用して古いデータを保持し、時間をかけてリハーサルすることです。
残念ながら、メモリサイズが限られているため、メモリの品質は時間の経過とともに低下します。
この論文では、知識凝縮技術を使用してメモリを継続的に圧縮し、限られたサイズをより有効に活用する、新しいリプレイベースの継続学習戦略であるOLCGMを提案します。
サンプル凝縮ステップは、他の再生戦略のように古いサンプルを削除するのではなく、古いサンプルを圧縮します。
その結果、実験では、データの複雑さに比べてメモリバジェットが制限されている場合は常に、OLCGMが最先端の再生戦略に比べて最終的な精度を向上させることが示されています。

要約(オリジナル)

Online Continual learning is a challenging learning scenario where the model must learn from a non-stationary stream of data where each sample is seen only once. The main challenge is to incrementally learn while avoiding catastrophic forgetting, namely the problem of forgetting previously acquired knowledge while learning from new data. A popular solution in these scenario is to use a small memory to retain old data and rehearse them over time. Unfortunately, due to the limited memory size, the quality of the memory will deteriorate over time. In this paper we propose OLCGM, a novel replay-based continual learning strategy that uses knowledge condensation techniques to continuously compress the memory and achieve a better use of its limited size. The sample condensation step compresses old samples, instead of removing them like other replay strategies. As a result, the experiments show that, whenever the memory budget is limited compared to the complexity of the data, OLCGM improves the final accuracy compared to state-of-the-art replay strategies.

arxiv情報

著者 Mattia Sangermano,Antonio Carta,Andrea Cossu,Davide Bacciu
発行日 2022-06-23 17:23:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク