math.PR」カテゴリーアーカイブ

Fractal and Regular Geometry of Deep Neural Networks

要約 深さが増加するにつれて、異なる活性化関数の遠足セットの境界体積を調査するこ … 続きを読む

カテゴリー: 60G60, 62B10, 62M45, 68T07, cs.LG, math.PR, stat.ML | Fractal and Regular Geometry of Deep Neural Networks はコメントを受け付けていません

The Transient Cost of Learning in Queueing Systems

要約 キューイングシステムは、通信ネットワーク、ヘルスケア、サービスシステムなど … 続きを読む

カテゴリー: cs.DS, cs.LG, cs.PF, math.PR | The Transient Cost of Learning in Queueing Systems はコメントを受け付けていません

Conditioning Diffusions Using Malliavin Calculus

要約 確率的最適制御や条件付き生成モデリングでは、中心的な計算タスクは、与えられ … 続きを読む

カテゴリー: cs.LG, G.3, math.PR, stat.ML | Conditioning Diffusions Using Malliavin Calculus はコメントを受け付けていません

Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks

要約 2つのクラスの連続非凸重量モデルを使用して、ランダムパターンラベル関連を保 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, math.PR | Exact full-RSB SAT/UNSAT transition in infinitely wide two-layer neural networks はコメントを受け付けていません

A stochastic gradient descent algorithm with random search directions

要約 確率的座標降下アルゴリズムは、現在の反復から値でほとんどの座標を修正し、残 … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR, stat.ML | A stochastic gradient descent algorithm with random search directions はコメントを受け付けていません

Bayesian Inferential Motion Planning Using Heavy-Tailed Distributions

要約 ロボットは、さまざまなタスクを実行しながら安全かつ効率的にナビゲートするた … 続きを読む

カテゴリー: cs.RO, math.OC, math.PR | Bayesian Inferential Motion Planning Using Heavy-Tailed Distributions はコメントを受け付けていません

Metric Entropy-Free Sample Complexity Bounds for Sample Average Approximation in Convex Stochastic Programming

要約 このホワイトペーパーでは、凸状または強く凸確率的プログラミング(SP)の問 … 続きを読む

カテゴリー: 60-08, 90C15, 90C25, cs.LG, math.OC, math.PR, math.ST, stat.TH | Metric Entropy-Free Sample Complexity Bounds for Sample Average Approximation in Convex Stochastic Programming はコメントを受け付けていません

A decision-theoretic approach to dealing with uncertainty in quantum mechanics

要約 量子力学の不確実性に対処するための意思決定理論的枠組みを提供します。 この … 続きを読む

カテゴリー: cs.AI, math.PR, quant-ph | A decision-theoretic approach to dealing with uncertainty in quantum mechanics はコメントを受け付けていません

Langevin Monte-Carlo Provably Learns Depth Two Neural Nets at Any Size and Data

要約 この作業では、Langevin Monte-Carloアルゴリズムがあらゆ … 続きを読む

カテゴリー: cs.LG, math.FA, math.PR | Langevin Monte-Carlo Provably Learns Depth Two Neural Nets at Any Size and Data はコメントを受け付けていません

A sharp uniform-in-time error estimate for Stochastic Gradient Langevin Dynamics

要約 確率的勾配Langevin Dynamics(SGLD)の鋭い均一な時間エ … 続きを読む

カテゴリー: 60H30, 65C20, 68Q25, cs.LG, math.PR, stat.ML | A sharp uniform-in-time error estimate for Stochastic Gradient Langevin Dynamics はコメントを受け付けていません