要約
オンライン継続学習(OCL)は、新しいデータがバッチからバッチまでのオンライン形式に到着する複雑な学習環境を提示し、壊滅的な忘却のリスクはモデルの有効性を大幅に損なう可能性があります。
この研究では、動的な情報と長期メモリシステムを保持する短期メモリシステムを組み込んだ革新的なメモリフレームワークと、永続的な知識をアーカイブするための革新的なメモリフレームワークを導入することにより、OCLに対処します。
具体的には、長期メモリシステムは、それぞれクラスタープロトタイプにリンクされ、異なるカテゴリからデータサンプルを保持するように設計されたサブメモリバッファーのコレクションで構成されています。
触れた各カテゴリのクラスタープロトタイプを識別するための新しい$ k $ -meansベースのサンプル選択方法を提案します。
必須および重要なサンプルを保護するために、最適な輸送メカニズムを介して各クラスタープロトタイプを着信サンプルに対して評価することにより、適切なサブメモリーバッファーにサンプルを選択的に保持する新しいメモリ最適化戦略を導入します。
このアプローチは、各サブメモリバッファーを促進して、対応するクラスタープロトタイプから有意な矛盾を示すデータサンプルを保持し、それにより、意味的に豊富な情報の保存を保証します。
さらに、メモリの更新を最適化の問題として定式化し、それをいくつかのサブ問題に分割する新しい分割(DAC)アプローチを提案します。
その結果、提案されたDACアプローチはこれらのサブ問題を個別に解決できるため、提案されたメモリ更新プロセスの計算を大幅に削減できます。
標準的および不均衡な学習設定を介して一連の実験を実施し、経験的な調査結果は、提案されたメモリフレームワークが両方の学習コンテキストで最先端のパフォーマンスを達成することを示しています。
要約(オリジナル)
Online Continual Learning (OCL) presents a complex learning environment in which new data arrives in a batch-to-batch online format, and the risk of catastrophic forgetting can significantly impair model efficacy. In this study, we address OCL by introducing an innovative memory framework that incorporates a short-term memory system to retain dynamic information and a long-term memory system to archive enduring knowledge. Specifically, the long-term memory system comprises a collection of sub-memory buffers, each linked to a cluster prototype and designed to retain data samples from distinct categories. We propose a novel $K$-means-based sample selection method to identify cluster prototypes for each encountered category. To safeguard essential and critical samples, we introduce a novel memory optimisation strategy that selectively retains samples in the appropriate sub-memory buffer by evaluating each cluster prototype against incoming samples through an optimal transportation mechanism. This approach specifically promotes each sub-memory buffer to retain data samples that exhibit significant discrepancies from the corresponding cluster prototype, thereby ensuring the preservation of semantically rich information. In addition, we propose a novel Divide-and-Conquer (DAC) approach that formulates the memory updating as an optimisation problem and divides it into several subproblems. As a result, the proposed DAC approach can solve these subproblems separately and thus can significantly reduce computations of the proposed memory updating process. We conduct a series of experiments across standard and imbalanced learning settings, and the empirical findings indicate that the proposed memory framework achieves state-of-the-art performance in both learning contexts.
arxiv情報
著者 | Congren Dai,Huichi Zhou,Jiahao Huang,Zhenxuan Zhang,Fanwen Wang,Guang Yang,Fei Ye |
発行日 | 2025-05-23 16:57:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google