62J05」カテゴリーアーカイブ

Improving the Convergence Rates of Forward Gradient Descent with Repeated Sampling

要約 前方勾配降下法 (FGD) は、後方パスなしで計算できるため、生物学的に最 … 続きを読む

カテゴリー: 62J05, 62L20, cs.LG, cs.NE, math.ST, stat.TH | Improving the Convergence Rates of Forward Gradient Descent with Repeated Sampling はコメントを受け付けていません

Second Maximum of a Gaussian Random Field and Exact (t-)Spacing test

要約 この記事では、リーマン部分多様体上のガウスランダム場の 2 番目の最大値と … 続きを読む

カテゴリー: (Primary), 60E05, 60G10, 60G15, 62F03, 62H10, 62H15, 62J05, 94A08, cs.LG, math.DG, math.PR, math.ST, stat.ML, stat.TH | Second Maximum of a Gaussian Random Field and Exact (t-)Spacing test はコメントを受け付けていません

Prediction Risk and Estimation Risk of the Ridgeless Least Squares Estimator under General Assumptions on Regression Errors

要約 近年、最小 $\ell_2$ ノルム (リッジレス) 内挿最小二乗推定量に … 続きを読む

カテゴリー: 62J05, 62J07, cs.LG, econ.EM, math.ST, stat.ML, stat.TH | Prediction Risk and Estimation Risk of the Ridgeless Least Squares Estimator under General Assumptions on Regression Errors はコメントを受け付けていません

Sparsifying Bayesian neural networks with latent binary variables and normalizing flows

要約 【タイトル】 潜在的バイナリ変数と正規化フローを用いたスパースなベイジアン … 続きを読む

カテゴリー: 05A16, 60J22, 62-02, 62-09, 62F07, 62F15, 62J05, 62J12, 62J99, 62M05, 90C27, 90C59, 92D20, cs.LG, G.1.6, stat.CO, stat.ME, stat.ML | Sparsifying Bayesian neural networks with latent binary variables and normalizing flows はコメントを受け付けていません