math.PR」カテゴリーアーカイブ

Convergence Analysis for General Probability Flow ODEs of Diffusion Models in Wasserstein Distances

要約 確率フロー常微分方程式 (ODE) を使用したスコアベースの生成モデリング … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Convergence Analysis for General Probability Flow ODEs of Diffusion Models in Wasserstein Distances はコメントを受け付けていません

Convergence of SGD for Training Neural Networks with Sliced Wasserstein Losses

要約 Optimal Transport は近年、特に確率尺度を比較する幾何学的 … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR | Convergence of SGD for Training Neural Networks with Sliced Wasserstein Losses はコメントを受け付けていません

Upper and lower bounds for the Lipschitz constant of random neural networks

要約 実証研究は、ニューラル ネットワークが入力の小さな敵対的な摂動に非常に敏感 … 続きを読む

カテゴリー: 26A16, 60B20, 60G15, 68T07, cs.LG, math.PR, stat.ML | Upper and lower bounds for the Lipschitz constant of random neural networks はコメントを受け付けていません

Counterfactual Reasoning with Probabilistic Graphical Models for Analyzing Socioecological Systems

要約 因果推論と反事実推論は、仮説的なシナリオについて推論できるようにするデータ … 続きを読む

カテゴリー: cs.AI, math.PR, stat.AP | Counterfactual Reasoning with Probabilistic Graphical Models for Analyzing Socioecological Systems はコメントを受け付けていません

Restless Bandits with Average Reward: Breaking the Uniform Global Attractor Assumption

要約 離散時間設定と連続時間設定の両方で、平均報酬基準を使用して無限地平線の落ち … 続きを読む

カテゴリー: 90C40, cs.LG, G.3, math.OC, math.PR, stat.ML | Restless Bandits with Average Reward: Breaking the Uniform Global Attractor Assumption はコメントを受け付けていません

A deep implicit-explicit minimizing movement method for option pricing in jump-diffusion models

要約 私たちは、ジャンプ拡散ダイナミクスに従う資産に書かれたヨーロッパのバスケッ … 続きを読む

カテゴリー: 65C20, 65M12, 68T07, 91G20, 91G60, cs.LG, math.PR, q-fin.CP | A deep implicit-explicit minimizing movement method for option pricing in jump-diffusion models はコメントを受け付けていません

Convergence of stochastic gradient descent schemes for Lojasiewicz-landscapes

要約 この記事では、基礎となる状況に関する弱い仮定の下で、運動量確率的勾配降下法 … 続きを読む

カテゴリー: 60J20, 62L20, 65C05, cs.LG, math.PR, math.ST, stat.TH | Convergence of stochastic gradient descent schemes for Lojasiewicz-landscapes はコメントを受け付けていません

Conditional expectation using compactification operators

要約 ノイズ除去、最小二乗期待値、および多様体学習という個別のタスクは、多くの場 … 続きを読む

カテゴリー: 46E22, 46E27, 62G05, 62G07, cs.LG, math.FA, math.PR, stat.ML | Conditional expectation using compactification operators はコメントを受け付けていません

Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems

要約 ワイド ニューラル ネットワークなどの深層学習モデルは、相互作用する多数の … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, hep-th, math.PR, stat.ML | Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems はコメントを受け付けていません

Matrices with Gaussian noise: optimal estimates for singular subspace perturbation

要約 Davis-Kahan-Wedin $\sin \Theta$ 定理は、小 … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, math.PR, stat.ML | Matrices with Gaussian noise: optimal estimates for singular subspace perturbation はコメントを受け付けていません