VERSE: Virtual-Gradient Aware Streaming Lifelong Learning with Anytime Inference

要約

生涯学習は継続学習とも呼ばれ、AI エージェントを継続的にトレーニングしながら、以前に取得した知識を忘れないようにする問題です。
既存の方法のほとんどは、主に静的な環境内での生涯学習に焦点を当てており、急速に変化する動的な環境での忘れを軽減する機能が欠けています。
ストリーミング生涯学習は、動的な非定常環境で忘れることなく継続的に学習することを目標とした、挑戦的な生涯学習の設定です。
私たちは生涯学習への新しいアプローチを導入します。これはストリーミングであり、データの 1 回のパスが必要で、クラス増分方式で学習でき、オンザフライ (いつでも推論) で評価できます。
これらを達成するために、壊滅的な忘却を防止し、指数移動平均ベースの意味記憶を活用してパフォーマンスをさらに向上させるために、継続的表現学習のための仮想勾配を提案します。
多様なデータセットに対する広範な実験により、私たちの方法の有効性と既存の方法よりも優れたパフォーマンスが実証されました。

要約(オリジナル)

Lifelong learning, also referred to as continual learning, is the problem of training an AI agent continuously while also preventing it from forgetting its previously acquired knowledge. Most of the existing methods primarily focus on lifelong learning within a static environment and lack the ability to mitigate forgetting in a quickly-changing dynamic environment. Streaming lifelong learning is a challenging setting of lifelong learning with the goal of continuous learning in a dynamic non-stationary environment without forgetting. We introduce a novel approach to lifelong learning, which is streaming, requires a single pass over the data, can learn in a class-incremental manner, and can be evaluated on-the-fly (anytime inference). To accomplish these, we propose virtual gradients for continual representation learning to prevent catastrophic forgetting and leverage an exponential-moving-average-based semantic memory to further enhance performance. Extensive experiments on diverse datasets demonstrate our method’s efficacy and superior performance over existing methods.

arxiv情報

著者 Soumya Banerjee,Vinay K. Verma,Avideep Mukherjee,Deepak Gupta,Vinay P. Namboodiri,Piyush Rai
発行日 2023-09-15 07:54:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク