Can We Understand Plasticity Through Neural Collapse?

要約

本稿では、ディープラーニングにおいて最近確認された2つの現象、可塑性の喪失と神経崩壊の関連性を探る。様々なシナリオでこれらの相関を分析し、最初のタスクの初期学習段階で有意な関連があることを明らかにする。さらに、神経崩壊を緩和するための正則化アプローチを導入し、この特定の設定における可塑性損失を緩和する有効性を実証する。

要約(オリジナル)

This paper explores the connection between two recently identified phenomena in deep learning: plasticity loss and neural collapse. We analyze their correlation in different scenarios, revealing a significant association during the initial training phase on the first task. Additionally, we introduce a regularization approach to mitigate neural collapse, demonstrating its effectiveness in alleviating plasticity loss in this specific setting.

arxiv情報

著者 Guglielmo Bonifazi,Iason Chalas,Gian Hess,Jakub Łucki
発行日 2024-04-03 13:21:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク