要約
本稿では、ディープラーニングにおいて最近確認された2つの現象、可塑性の喪失と神経崩壊の関連性を探る。様々なシナリオでこれらの相関を分析し、最初のタスクの初期学習段階で有意な関連があることを明らかにする。さらに、神経崩壊を緩和するための正則化アプローチを導入し、この特定の設定における可塑性損失を緩和する有効性を実証する。
要約(オリジナル)
This paper explores the connection between two recently identified phenomena in deep learning: plasticity loss and neural collapse. We analyze their correlation in different scenarios, revealing a significant association during the initial training phase on the first task. Additionally, we introduce a regularization approach to mitigate neural collapse, demonstrating its effectiveness in alleviating plasticity loss in this specific setting.
arxiv情報
| 著者 | Guglielmo Bonifazi,Iason Chalas,Gian Hess,Jakub Łucki |
| 発行日 | 2024-04-03 13:21:58+00:00 |
| arxivサイト | arxiv_id(pdf) |