要約
この論文では、L1 正則化と表現次元の役割に焦点を当てて、2 層ニューラル ネットワークにおける二重降下現象を調査します。
ここでは、スパース二重降下と呼ばれる別の二重降下現象を調査します。
この研究は、モデルの複雑性、疎性、一般化の間の複雑な関係を強調し、より多様なモデルとデータセットについてのさらなる研究を示唆しています。
この発見は、ニューラル ネットワークのトレーニングと最適化についてのより深い理解に貢献します。
要約(オリジナル)
This paper investigates the double descent phenomenon in two-layer neural networks, focusing on the role of L1 regularization and representation dimensions. It explores an alternative double descent phenomenon, named sparse double descent. The study emphasizes the complex relationship between model complexity, sparsity, and generalization, and suggests further research into more diverse models and datasets. The findings contribute to a deeper understanding of neural network training and optimization.
arxiv情報
著者 | Ya Shi Zhang |
発行日 | 2024-01-19 13:33:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google