要約
継続的な学習では、知識を保存してタスク間で再利用し、将来のタスクへの適切な移行を維持し、以前に学習した内容の忘れを最小限に抑える必要があります。
この設定用にいくつかの実用的なアルゴリズムが考案されていますが、一般的な設定における忘却の程度を定量化し、制限することを目的とした理論的な研究はほとんどありません。
モデルやアルゴリズムの選択に関係なく適用されるデータ依存の上限とオラクルの上限、およびギブス事後分布の上限の両方を提供します。
私たちは限界にインスピレーションを得たアルゴリズムを導き出し、このアプローチにより前方および後方の転送が改善されることを経験的に実証しました。
要約(オリジナル)
In continual learning, knowledge must be preserved and re-used between tasks, maintaining good transfer to future tasks and minimizing forgetting of previously learned ones. While several practical algorithms have been devised for this setting, there have been few theoretical works aiming to quantify and bound the degree of Forgetting in general settings. We provide both data-dependent and oracle upper bounds that apply regardless of model and algorithm choice, as well as bounds for Gibbs posteriors. We derive an algorithm inspired by our bounds and demonstrate empirically that our approach yields improved forward and backward transfer.
arxiv情報
著者 | Lior Friedman,Ron Meir |
発行日 | 2024-06-13 17:50:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google