Continual Learning: Applications and the Road Forward

要約

継続学習は機械学習のサブ分野であり、過去に学習したことを忘れることなく知識を蓄積することで、機械学習モデルが新しいデータで継続的に学習できるようにすることを目的としています。
この研究では、私たちは一歩下がって、「そもそもなぜ継続的な学習に気を配る必要があるのか​​?」と問いかけます。
私たちは、4 つの主要な機械学習カンファレンスで発表された最近の継続的学習論文を調査することで準備を整え、メモリに制約のある設定がこの分野を支配していることを示しました。
次に、機械学習における 5 つの未解決の問題について説明し、一見すると継続学習とは無関係に見えるかもしれませんが、継続学習が必然的に解決策の一部となることを示します。
これらの問題とは、モデルの編集、パーソナライゼーションと専門化、オンデバイス学習、より高速な (再) トレーニング、強化学習です。
最後に、これらの未解決の問題からの要望と継続学習における現在の仮定を比較することにより、継続学習研究の 4 つの将来の方向性を強調し、議論します。
私たちは、この研究が継続学習の将来について興味深い視点を提供すると同時に、その潜在的な価値とそれを成功させるために私たちが追求しなければならない道を示すことを願っています。
この作品は、2023 年 3 月に開催された深層継続学習に関する Dagstuhl セミナーで著者らが行った多くの議論の結果です。

要約(オリジナル)

Continual learning is a subfield of machine learning, which aims to allow machine learning models to continuously learn on new data, by accumulating knowledge without forgetting what was learned in the past. In this work, we take a step back, and ask: ‘Why should one care about continual learning in the first place?’. We set the stage by examining recent continual learning papers published at four major machine learning conferences, and show that memory-constrained settings dominate the field. Then, we discuss five open problems in machine learning, and even though they might seem unrelated to continual learning at first sight, we show that continual learning will inevitably be part of their solution. These problems are model editing, personalization and specialization, on-device learning, faster (re-)training and reinforcement learning. Finally, by comparing the desiderata from these unsolved problems and the current assumptions in continual learning, we highlight and discuss four future directions for continual learning research. We hope that this work offers an interesting perspective on the future of continual learning, while displaying its potential value and the paths we have to pursue in order to make it successful. This work is the result of the many discussions the authors had at the Dagstuhl seminar on Deep Continual Learning, in March 2023.

arxiv情報

著者 Eli Verwimp,Rahaf Aljundi,Shai Ben-David,Matthias Bethge,Andrea Cossu,Alexander Gepperth,Tyler L. Hayes,Eyke Hüllermeier,Christopher Kanan,Dhireesha Kudithipudi,Christoph H. Lampert,Martin Mundt,Razvan Pascanu,Adrian Popescu,Andreas S. Tolias,Joost van de Weijer,Bing Liu,Vincenzo Lomonaco,Tinne Tuytelaars,Gido M. van de Ven
発行日 2024-03-28 13:16:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク