要約
深層学習モデルを非定常環境に適応させることの本質的な難しさは、実世界のタスクに対するニューラルネットワークの適用性を制限する。この問題は、事前に訓練されたモデルが、異なるタスク予測子が時間とともに順次学習される潜在空間への投影を計算するような、実用的な教師あり学習設定において重要である。実際、新しいタスクに適応するためにモデル全体を漸進的に微調整することは、通常、壊滅的な忘却を招き、過去の経験から性能が低下し、事前学習段階からの貴重な知識が失われる。本論文では、微調整をより効果的に行うための新しい戦略を提案する。ネットワークの事前学習部分の更新を避け、通常の分類ヘッドだけでなく、入力データを変換する役割を持つ、新たに導入された学習可能なパラメータのセットも学習することで、微調整の手順をより効果的にする。このプロセスにより、ネットワークは事前学習の知識を効果的に活用し、可塑性と安定性の間の良好なトレードオフを適度な計算量で見つけることができるため、特にオン・ザ・エッジの設定に適している。継続的な学習環境における4つの画像分類問題に対する実験により、いくつかの微調整手順や一般的な継続的学習法と比較した場合、提案されたアプローチの品質が確認された。
要約(オリジナル)
The intrinsic difficulty in adapting deep learning models to non-stationary environments limits the applicability of neural networks to real-world tasks. This issue is critical in practical supervised learning settings, such as the ones in which a pre-trained model computes projections toward a latent space where different task predictors are sequentially learned over time. As a matter of fact, incrementally fine-tuning the whole model to better adapt to new tasks usually results in catastrophic forgetting, with decreasing performance over the past experiences and losing valuable knowledge from the pre-training stage. In this paper, we propose a novel strategy to make the fine-tuning procedure more effective, by avoiding to update the pre-trained part of the network and learning not only the usual classification head, but also a set of newly-introduced learnable parameters that are responsible for transforming the input data. This process allows the network to effectively leverage the pre-training knowledge and find a good trade-off between plasticity and stability with modest computational efforts, thus especially suitable for on-the-edge settings. Our experiments on four image classification problems in a continual learning setting confirm the quality of the proposed approach when compared to several fine-tuning procedures and to popular continual learning methods.
arxiv情報
| 著者 | Simone Marullo,Matteo Tiezzi,Marco Gori,Stefano Melacci,Tinne Tuytelaars |
| 発行日 | 2023-06-05 15:11:59+00:00 |
| arxivサイト | arxiv_id(pdf) |