要約
ノイズの多い単変量回帰に対する最小ノルム (重みの $\ell_2$) 2 層 ReLU ネットワークによる内挿の漸近過学習挙動を研究します。
$L_1$ の損失と、$p<2$ の $L_p$ 損失については過学習が緩和されますが、$p\geq 2$ では壊滅的であることがわかります。
要約(オリジナル)
We study the asymptotic overfitting behavior of interpolation with minimum norm ($\ell_2$ of the weights) two-layer ReLU networks for noisy univariate regression. We show that overfitting is tempered for the $L_1$ loss, and any $L_p$ loss for $p<2$, but catastrophic for $p\geq 2$.
arxiv情報
著者 | Nirmit Joshi,Gal Vardi,Nathan Srebro |
発行日 | 2023-08-01 12:56:29+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google