math.PR」カテゴリーアーカイブ

Evaluating the design space of diffusion-based generative models

要約 拡散モデルの精度に関する既存の理論的研究のほとんどは、重要ではあるものの、 … 続きを読む

カテゴリー: cs.LG, math.DS, math.OC, math.PR, stat.ML | Evaluating the design space of diffusion-based generative models はコメントを受け付けていません

Score-Aware Policy-Gradient Methods and Performance Guarantees using Local Lyapunov Conditions: Applications to Product-Form Stochastic Networks and Queueing Systems

要約 この論文では、確率ネットワーク、キューイング システム、統計力学のマルコフ … 続きを読む

カテゴリー: cs.LG, cs.PF, math.OC, math.PR | Score-Aware Policy-Gradient Methods and Performance Guarantees using Local Lyapunov Conditions: Applications to Product-Form Stochastic Networks and Queueing Systems はコメントを受け付けていません

Unichain and Aperiodicity are Sufficient for Asymptotic Optimality of Average-Reward Restless Bandits

要約 無限の地平線、平均報酬の落ち着きのない盗賊問題を離散時間で考察します。 私 … 続きを読む

カテゴリー: 90C40, cs.LG, G.3, math.OC, math.PR | Unichain and Aperiodicity are Sufficient for Asymptotic Optimality of Average-Reward Restless Bandits はコメントを受け付けていません

Diffusion models for Gaussian distributions: Exact solutions and Wasserstein errors

要約 拡散またはスコアベースのモデルは、最近、画像生成において高いパフォーマンス … 続きを読む

カテゴリー: cs.LG, eess.IV, math.PR | Diffusion models for Gaussian distributions: Exact solutions and Wasserstein errors はコメントを受け付けていません

Errors are Robustly Tamed in Cumulative Knowledge Processes

要約 私たちは、新しい知識単位の妥当性が、その導出の正確さと、それが依存する単位 … 続きを読む

カテゴリー: cs.AI, cs.DS, cs.SI, math.PR | Errors are Robustly Tamed in Cumulative Knowledge Processes はコメントを受け付けていません

Neural Laplace for learning Stochastic Differential Equations

要約 Neural Laplace は、さまざまなクラスの微分方程式 (DE) … 続きを読む

カテゴリー: cs.AI, cs.LG, math.PR | Neural Laplace for learning Stochastic Differential Equations はコメントを受け付けていません

How Flawed Is ECE? An Analysis via Logit Smoothing

要約 非公式には、モデルの予測が予測の信頼度と一致する確率で正しい場合、モデルは … 続きを読む

カテゴリー: (Primary), 60E05, cs.LG, math.PR | How Flawed Is ECE? An Analysis via Logit Smoothing はコメントを受け付けていません

Entropy annealing for policy mirror descent in continuous time and space

要約 エントロピー正則化は、最適化ランドスケープを正則化し、収束を加速するために … 続きを読む

カテゴリー: (Primary), 35J61, 49M29, 60H30, 68Q25, cs.LG, math.OC, math.PR | Entropy annealing for policy mirror descent in continuous time and space はコメントを受け付けていません

MCGAN: Enhancing GAN Training with Regression-Based Generator Loss

要約 敵対的生成ネットワーク (GAN) は、忠実度の高いデータを生成するための … 続きを読む

カテゴリー: cs.CV, math.PR | MCGAN: Enhancing GAN Training with Regression-Based Generator Loss はコメントを受け付けていません

Reducing the cost of posterior sampling in linear inverse problems via task-dependent score learning

要約 スコアベースの拡散モデル (SDM) は、さまざまなベイジアン逆問題で事後 … 続きを読む

カテゴリー: 60Hxx, 60Jxx, 62F15, 65N21, 68Q32, cs.LG, cs.NA, math.AP, math.NA, math.PR, stat.ML | Reducing the cost of posterior sampling in linear inverse problems via task-dependent score learning はコメントを受け付けていません