62L20」カテゴリーアーカイブ

Analysis of an Idealized Stochastic Polyak Method and its Application to Black-Box Model Distillation

要約 SPS $^*$と呼ばれる理想的な確率的ポリックステップサイズの一般的な収 … 続きを読む

カテゴリー: 15B52, 62L20, 65Y20, 68W20, 68W40, 74S60, 90C06, 90C53, cs.LG, G.1.6 | コメントする

Nonasymptotic Analysis of Stochastic Gradient Descent with the Richardson-Romberg Extrapolation

要約 本論文では、一定のステップサイズを持つ確率的勾配降下(SGD)アルゴリズム … 続きを読む

カテゴリー: 62L20, 93E35, cs.LG, math.OC, stat.ML | Nonasymptotic Analysis of Stochastic Gradient Descent with the Richardson-Romberg Extrapolation はコメントを受け付けていません

Gaussian Approximation and Multiplier Bootstrap for Stochastic Gradient Descent

要約 この論文では、確率的勾配降下(SGD)のPolyAK-Ruppert平均繰 … 続きを読む

カテゴリー: 60F05, 62L20, 93E35, cs.LG, math.OC, math.PR, math.ST, stat.ML, stat.TH | Gaussian Approximation and Multiplier Bootstrap for Stochastic Gradient Descent はコメントを受け付けていません

Upper Bounds for Learning in Reproducing Kernel Hilbert Spaces for Non IID Samples

要約 この論文では、二次損失関数の最適解を近似することを目的として、一般的なヒル … 続きを読む

カテゴリー: 60J20, 62L20, 68Q32, 68T05, cs.LG, math.FA, stat.ML | Upper Bounds for Learning in Reproducing Kernel Hilbert Spaces for Non IID Samples はコメントを受け付けていません

Improving the Convergence Rates of Forward Gradient Descent with Repeated Sampling

要約 前方勾配降下法 (FGD) は、後方パスなしで計算できるため、生物学的に最 … 続きを読む

カテゴリー: 62J05, 62L20, cs.LG, cs.NE, math.ST, stat.TH | Improving the Convergence Rates of Forward Gradient Descent with Repeated Sampling はコメントを受け付けていません

The ODE Method for Asymptotic Statistics in Stochastic Approximation and Reinforcement Learning

要約 この論文は $d$ 次元の確率的近似再帰 $$ \theta_{n+1}= … 続きを読む

カテゴリー: 60F17, 62L20, 68T05, cs.LG, math.ST, stat.TH | The ODE Method for Asymptotic Statistics in Stochastic Approximation and Reinforcement Learning はコメントを受け付けていません

The ODE Method for Asymptotic Statistics in Stochastic Approximation and Reinforcement Learning

要約 この論文は、確率的近似再帰 \[ \theta_{n+1}= \theta … 続きを読む

カテゴリー: 60F17, 62L20, 68T05, cs.LG, math.ST, stat.TH | The ODE Method for Asymptotic Statistics in Stochastic Approximation and Reinforcement Learning はコメントを受け付けていません

Convergence of stochastic gradient descent schemes for Lojasiewicz-landscapes

要約 この記事では、基礎となる状況に関する弱い仮定の下で、運動量確率的勾配降下法 … 続きを読む

カテゴリー: 60J20, 62L20, 65C05, cs.LG, math.PR, math.ST, stat.TH | Convergence of stochastic gradient descent schemes for Lojasiewicz-landscapes はコメントを受け付けていません

Convergence Rates for Stochastic Approximation: Biased Noise with Unbounded Variance, and Applications

要約 1951 年に Robbins と Monro によって導入された確率的近 … 続きを読む

カテゴリー: 60G17, 62L20, 93D05, cs.LG, math.OC, math.PR, stat.ML | Convergence Rates for Stochastic Approximation: Biased Noise with Unbounded Variance, and Applications はコメントを受け付けていません

Stability of Q-Learning Through Design and Optimism

要約 Q ラーニングは、1980 年代に Chris Watkins の論文で導 … 続きを読む

カテゴリー: 62L20, 68T05, 93E20, 93E35, cs.LG, cs.SY, eess.SY, math.OC | Stability of Q-Learning Through Design and Optimism はコメントを受け付けていません