要約
人工ニューラル ネットワークは、複数のタスクを順番に学習するときに、新しいタスクのトレーニングによって以前に学習したタスクのパフォーマンスが低下するため、壊滅的な忘却に悩まされることがよくあります。
最近の理論的研究では、事前定義されたトレーニング プロトコルの下で合成フレームワークの学習曲線を分析することで、この問題に対処しています。
しかし、これらのプロトコルはヒューリスティックに依存しており、その最適性を評価するための確固たる理論的基盤が不足していました。
この論文では、統計物理学手法を使用して導出されたトレーニングダイナミクスの正確な方程式と最適な制御方法を組み合わせて、このギャップを埋めます。
私たちはこのアプローチを継続学習とマルチタスク問題の教師と生徒のモデルに適用し、忘れを最小限に抑えながらパフォーマンスを最大化するタスク選択プロトコルの理論を取得します。
私たちの理論的分析は、壊滅的な物忘れを軽減するための自明ではないが解釈可能な戦略を提供し、最適な学習プロトコルが、タスクの類似性が物忘れに及ぼす影響など、確立された効果をどのように調整できるかを明らかにします。
最後に、理論上の発見を現実世界のデータで検証します。
要約(オリジナル)
Artificial neural networks often struggle with catastrophic forgetting when learning multiple tasks sequentially, as training on new tasks degrades the performance on previously learned ones. Recent theoretical work has addressed this issue by analysing learning curves in synthetic frameworks under predefined training protocols. However, these protocols relied on heuristics and lacked a solid theoretical foundation assessing their optimality. In this paper, we fill this gap combining exact equations for training dynamics, derived using statistical physics techniques, with optimal control methods. We apply this approach to teacher-student models for continual learning and multi-task problems, obtaining a theory for task-selection protocols maximising performance while minimising forgetting. Our theoretical analysis offers non-trivial yet interpretable strategies for mitigating catastrophic forgetting, shedding light on how optimal learning protocols can modulate established effects, such as the influence of task similarity on forgetting. Finally, we validate our theoretical findings on real-world data.
arxiv情報
著者 | Francesco Mori,Stefano Sarao Mannelli,Francesca Mignacco |
発行日 | 2024-09-26 17:01:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google