math.PR」カテゴリーアーカイブ

Unichain and Aperiodicity are Sufficient for Asymptotic Optimality of Average-Reward Restless Bandits

要約 無限の地平線、平均報酬の落ち着きのない盗賊問題を離散時間で考察します。 私 … 続きを読む

カテゴリー: 90C40, cs.LG, G.3, math.OC, math.PR | Unichain and Aperiodicity are Sufficient for Asymptotic Optimality of Average-Reward Restless Bandits はコメントを受け付けていません

Diffusion models for Gaussian distributions: Exact solutions and Wasserstein errors

要約 拡散またはスコアベースのモデルは、最近、画像生成において高いパフォーマンス … 続きを読む

カテゴリー: cs.LG, eess.IV, math.PR | Diffusion models for Gaussian distributions: Exact solutions and Wasserstein errors はコメントを受け付けていません

Errors are Robustly Tamed in Cumulative Knowledge Processes

要約 私たちは、新しい知識単位の妥当性が、その導出の正確さと、それが依存する単位 … 続きを読む

カテゴリー: cs.AI, cs.DS, cs.SI, math.PR | Errors are Robustly Tamed in Cumulative Knowledge Processes はコメントを受け付けていません

Neural Laplace for learning Stochastic Differential Equations

要約 Neural Laplace は、さまざまなクラスの微分方程式 (DE) … 続きを読む

カテゴリー: cs.AI, cs.LG, math.PR | Neural Laplace for learning Stochastic Differential Equations はコメントを受け付けていません

How Flawed Is ECE? An Analysis via Logit Smoothing

要約 非公式には、モデルの予測が予測の信頼度と一致する確率で正しい場合、モデルは … 続きを読む

カテゴリー: (Primary), 60E05, cs.LG, math.PR | How Flawed Is ECE? An Analysis via Logit Smoothing はコメントを受け付けていません

Entropy annealing for policy mirror descent in continuous time and space

要約 エントロピー正則化は、最適化ランドスケープを正則化し、収束を加速するために … 続きを読む

カテゴリー: (Primary), 35J61, 49M29, 60H30, 68Q25, cs.LG, math.OC, math.PR | Entropy annealing for policy mirror descent in continuous time and space はコメントを受け付けていません

MCGAN: Enhancing GAN Training with Regression-Based Generator Loss

要約 敵対的生成ネットワーク (GAN) は、忠実度の高いデータを生成するための … 続きを読む

カテゴリー: cs.CV, math.PR | MCGAN: Enhancing GAN Training with Regression-Based Generator Loss はコメントを受け付けていません

Reducing the cost of posterior sampling in linear inverse problems via task-dependent score learning

要約 スコアベースの拡散モデル (SDM) は、さまざまなベイジアン逆問題で事後 … 続きを読む

カテゴリー: 60Hxx, 60Jxx, 62F15, 65N21, 68Q32, cs.LG, cs.NA, math.AP, math.NA, math.PR, stat.ML | Reducing the cost of posterior sampling in linear inverse problems via task-dependent score learning はコメントを受け付けていません

Learning the Infinitesimal Generator of Stochastic Diffusion Processes

要約 私たちは、自然および物理システムの数値シミュレーションを理解するために不可 … 続きを読む

カテゴリー: 62M15, cs.LG, math.PR, stat.ML | Learning the Infinitesimal Generator of Stochastic Diffusion Processes はコメントを受け付けていません

Metric Entropy-Free Sample Complexity Bounds for Sample Average Approximation in Convex Stochastic Programming

要約 この論文では、凸または強凸の確率計画法問題を解く際のサンプル平均近似 (S … 続きを読む

カテゴリー: 60-08, 90C15, 90C25, cs.LG, math.OC, math.PR, math.ST, stat.TH | Metric Entropy-Free Sample Complexity Bounds for Sample Average Approximation in Convex Stochastic Programming はコメントを受け付けていません