Dimension-independent learning rates for high-dimensional classification problems

要約

$RBV^2$ 空間に決定境界を持つ分類関数の近似と推定の問題を研究します。
$RBV^2$ タイプの関数は、正則化されたニューラル ネットワーク学習問題の解として自然に発生し、ニューラル ネットワークは次元の呪縛を受けることなくこれらの関数を近似できます。
既存の結果を変更して、すべての $RBV^2$ 関数が制限された重みを持つニューラル ネットワークによって近似できることを示します。
その後、分類関数を近似する有界重みを持つニューラル ネットワークの存在を証明します。
そして、これらの境界を利用して推定率を定量化します。
最後に、決定境界に対するさまざまな規則性条件の影響を分析する数値研究を紹介します。

要約(オリジナル)

We study the problem of approximating and estimating classification functions that have their decision boundary in the $RBV^2$ space. Functions of $RBV^2$ type arise naturally as solutions of regularized neural network learning problems and neural networks can approximate these functions without the curse of dimensionality. We modify existing results to show that every $RBV^2$ function can be approximated by a neural network with bounded weights. Thereafter, we prove the existence of a neural network with bounded weights approximating a classification function. And we leverage these bounds to quantify the estimation rates. Finally, we present a numerical study that analyzes the effect of different regularity conditions on the decision boundaries.

arxiv情報

著者 Andres Felipe Lerma-Pineda,Philipp Petersen,Simon Frieder,Thomas Lukasiewicz
発行日 2024-09-26 16:02:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: 41A25, 41A46, 62C20, 68T05, cs.LG, cs.NA, math.NA, stat.ML パーマリンク