GRASP: A Rehearsal Policy for Efficient Online Continual Learning

要約

ディープ ニューラル ネットワーク (DNN) の継続学習 (CL) には、増大するデータ ストリームから DNN に知識を段階的に蓄積することが含まれます。
CL の大きな課題は、非定常データ ストリームにより、以前に学習した能力が壊滅的に忘れられてしまうことです。
一般的な解決策はリハーサルです。過去の観測をバッファーに保存し、そのバッファーをサンプリングして DNN を更新します。
クラスバランスのとれた方法での均一なサンプリングは非常に効果的ですが、より適切なサンプル選択ポリシーは実現できませんでした。
ここでは、最初に最も原型的な (簡単な) サンプルを選択し、次に徐々に原型的ではない (より難しい) サンプルを選択する、GRASP と呼ばれる新しいサンプル選択ポリシーを提案します。
GRASP では、均一選択と比較して追加の計算やメモリのオーバーヘッドがほとんどないため、大規模なデータセットまで拡張できます。
他の 17 のリハーサル ポリシーと比較して、GRASP は ImageNet 上の CL 実験でより高い精度を達成します。
均一なバランスのとれたサンプリングと比較して、GRASP は 40% 少ない更新で同じパフォーマンスを達成します。
また、GRASP が 5 つのテキスト分類データセットの CL に対して有効であることも示します。

要約(オリジナル)

Continual learning (CL) in deep neural networks (DNNs) involves incrementally accumulating knowledge in a DNN from a growing data stream. A major challenge in CL is that non-stationary data streams cause catastrophic forgetting of previously learned abilities. A popular solution is rehearsal: storing past observations in a buffer and then sampling the buffer to update the DNN. Uniform sampling in a class-balanced manner is highly effective, and better sample selection policies have been elusive. Here, we propose a new sample selection policy called GRASP that selects the most prototypical (easy) samples first and then gradually selects less prototypical (harder) examples. GRASP has little additional compute or memory overhead compared to uniform selection, enabling it to scale to large datasets. Compared to 17 other rehearsal policies, GRASP achieves higher accuracy in CL experiments on ImageNet. Compared to uniform balanced sampling, GRASP achieves the same performance with 40% fewer updates. We also show that GRASP is effective for CL on five text classification datasets.

arxiv情報

著者 Md Yousuf Harun,Jhair Gallardo,Junyu Chen,Christopher Kanan
発行日 2024-05-01 17:25:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CV, cs.LG パーマリンク