62G08」カテゴリーアーカイブ

Analysis of the expected $L_2$ error of an over-parametrized deep neural network estimate learned by gradient descent without regularization

要約 最近の結果は、正規化された経験的$L_2$リスクに勾配降下法を適用すること … 続きを読む

カテゴリー: 62G08, cs.LG, stat.ML | Analysis of the expected $L_2$ error of an over-parametrized deep neural network estimate learned by gradient descent without regularization はコメントを受け付けていません

Optimal Rate of Kernel Regression in Large Dimensions

要約 大次元データのカーネル回帰の研究を実行します (サンプルサイズ $n$ は … 続きを読む

カテゴリー: 46E22, 62G08, 68T07, cs.LG, math.ST, stat.ML, stat.TH | Optimal Rate of Kernel Regression in Large Dimensions はコメントを受け付けていません

Functional Neural Networks: Shift invariant models for functional data with applications to EEG classification

要約 統計モデルでは、位置とは無関係に対象の信号を検出することが望ましい。 デー … 続きを読む

カテゴリー: 62G08, 62R10, 68T07, cs.LG, G.3, stat.ME, stat.ML | Functional Neural Networks: Shift invariant models for functional data with applications to EEG classification はコメントを受け付けていません

Nonparametric Linear Feature Learning in Regression Through Regularisation

要約 表現学習は、特にノンパラメトリック手法では困難が多い高次元データのコンテキ … 続きを読む

カテゴリー: 62F10, 62G08, 65K10, cs.AI, cs.LG, I.2.6, math.ST, stat.ME, stat.TH | Nonparametric Linear Feature Learning in Regression Through Regularisation はコメントを受け付けていません

Nonparametric Linear Feature Learning in Regression Through Regularisation

要約 表現学習は、特にノンパラメトリック手法では困難が多い高次元データのコンテキ … 続きを読む

カテゴリー: 62F10, 62G08, 65K10, cs.AI, cs.LG, I.2.6, math.ST, stat.ME, stat.TH | Nonparametric Linear Feature Learning in Regression Through Regularisation はコメントを受け付けていません