Minimax Forward and Backward Learning of Evolving Tasks with Performance Guarantees

要約

時間の経過とともに到着する一連の分類タスクの場合、連続するタスクの類似性が高くなることが多いという意味で、タスクが進化するのが一般的です。
増加する一連のタスクの増分学習では、シーケンス内のすべてのタスクからの情報を活用することで、タスクあたりのサンプルが少ない場合でも正確な分類が可能になることが期待されます (前方学習と後方学習)。
ただし、継続的な学習と概念ドリフト適応のために開発された既存の手法は、時間に依存しない類似性を持つタスク向けに設計されているか、シーケンス内の最後のタスクの学習のみを目的としています。
この論文では、前方学習と後方学習を効果的に活用し、進化するタスクを説明する増分ミニマックス リスク分類子 (IMRC) について説明します。
さらに、タスクの予想二次変化とタスク数の観点から、前方学習と後方学習によってもたらされるパフォーマンスの向上を分析的に特徴付けます。
実験による評価では、IMRC によって、特にサンプル サイズが縮小された場合にパフォーマンスが大幅に向上する可能性があることが示されています。

要約(オリジナル)

For a sequence of classification tasks that arrive over time, it is common that tasks are evolving in the sense that consecutive tasks often have a higher similarity. The incremental learning of a growing sequence of tasks holds promise to enable accurate classification even with few samples per task by leveraging information from all the tasks in the sequence (forward and backward learning). However, existing techniques developed for continual learning and concept drift adaptation are either designed for tasks with time-independent similarities or only aim to learn the last task in the sequence. This paper presents incremental minimax risk classifiers (IMRCs) that effectively exploit forward and backward learning and account for evolving tasks. In addition, we analytically characterize the performance improvement provided by forward and backward learning in terms of the tasks’ expected quadratic change and the number of tasks. The experimental evaluation shows that IMRCs can result in a significant performance improvement, especially for reduced sample sizes.

arxiv情報

著者 Verónica Álvarez,Santiago Mazuelas,Jose A. Lozano
発行日 2023-10-24 16:21:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク