Hyperparameter Selection in Continual Learning

要約

学習者がデータのストリームでトレーニングする継続学習 (CL) では、学習者が同時にすべてのデータにアクセスできないため、標準のハイパーパラメータ最適化 (HPO) を適用できません。
これにより、CL 固有の HPO フレームワークの開発が促進されました。
CL でハイパーパラメータを調整する最も一般的な方法は、さまざまなハイパーパラメータ設定を使用してデータ ストリーム全体を繰り返しトレーニングすることです。
ただし、実際には学習者はストリームを 1 回しか見ることができないため、このトレーニング終了 HPO は非現実的です。
したがって、未解決の質問があります。実践者は実際に CL 問題に対してどの HPO フレームワークを使用すべきでしょうか?
このペーパーでは、いくつかの現実的な HPO フレームワークを評価することで、この質問に答えます。
トレーニング終了時の HPO を含め、検討したすべての HPO フレームワークが同様に動作することがわかりました。
したがって、私たちは現実的で最も計算効率の高い方法、つまり最初のタスクにハイパーパラメータを適合させ、トレーニング全体を通じてそれらを固定する方法を使用することを推奨します。

要約(オリジナル)

In continual learning (CL) — where a learner trains on a stream of data — standard hyperparameter optimisation (HPO) cannot be applied, as a learner does not have access to all of the data at the same time. This has prompted the development of CL-specific HPO frameworks. The most popular way to tune hyperparameters in CL is to repeatedly train over the whole data stream with different hyperparameter settings. However, this end-of-training HPO is unrealistic as in practice a learner can only see the stream once. Hence, there is an open question: what HPO framework should a practitioner use for a CL problem in reality? This paper answers this question by evaluating several realistic HPO frameworks. We find that all the HPO frameworks considered, including end-of-training HPO, perform similarly. We therefore advocate using the realistic and most computationally efficient method: fitting the hyperparameters on the first task and then fixing them throughout training.

arxiv情報

著者 Thomas L. Lee,Sigrid Passano Hellan,Linus Ericsson,Elliot J. Crowley,Amos Storkey
発行日 2024-04-09 17:14:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク