math.PR」カテゴリーアーカイブ

Stochastic Differential Equations models for Least-Squares Stochastic Gradient Descent

要約 最小二乗問題の確率的勾配降下法 (SGD) の連続時間モデルのダイナミクス … 続きを読む

カテゴリー: cs.LG, math.PR | コメントする

Second Maximum of a Gaussian Random Field and Exact (t-)Spacing test

要約 この記事では、リーマン部分多様体上のガウスランダム場の 2 番目の最大値と … 続きを読む

カテゴリー: (Primary), 60E05, 60G10, 60G15, 62F03, 62H10, 62H15, 62J05, 94A08, cs.LG, math.DG, math.PR, math.ST, stat.ML, stat.TH | コメントする

Normalizing Flows for Conformal Regression

要約 等角予測 (CP) アルゴリズムは、ラベル付きデータの出力を校正することに … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | コメントする

Robust $Q$-learning Algorithm for Markov Decision Processes under Wasserstein Uncertainty

要約 我々は、分布的に堅牢なマルコフ決定問題を解決するために調整された新しい $ … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC, math.PR, stat.ML | コメントする

Evaluating the design space of diffusion-based generative models

要約 拡散モデルの精度に関する既存の理論的研究のほとんどは、重要ではあるものの、 … 続きを読む

カテゴリー: cs.LG, math.DS, math.OC, math.PR, stat.ML | Evaluating the design space of diffusion-based generative models はコメントを受け付けていません

Score-Aware Policy-Gradient Methods and Performance Guarantees using Local Lyapunov Conditions: Applications to Product-Form Stochastic Networks and Queueing Systems

要約 この論文では、確率ネットワーク、キューイング システム、統計力学のマルコフ … 続きを読む

カテゴリー: cs.LG, cs.PF, math.OC, math.PR | Score-Aware Policy-Gradient Methods and Performance Guarantees using Local Lyapunov Conditions: Applications to Product-Form Stochastic Networks and Queueing Systems はコメントを受け付けていません

Unichain and Aperiodicity are Sufficient for Asymptotic Optimality of Average-Reward Restless Bandits

要約 無限の地平線、平均報酬の落ち着きのない盗賊問題を離散時間で考察します。 私 … 続きを読む

カテゴリー: 90C40, cs.LG, G.3, math.OC, math.PR | Unichain and Aperiodicity are Sufficient for Asymptotic Optimality of Average-Reward Restless Bandits はコメントを受け付けていません

Diffusion models for Gaussian distributions: Exact solutions and Wasserstein errors

要約 拡散またはスコアベースのモデルは、最近、画像生成において高いパフォーマンス … 続きを読む

カテゴリー: cs.LG, eess.IV, math.PR | Diffusion models for Gaussian distributions: Exact solutions and Wasserstein errors はコメントを受け付けていません

Errors are Robustly Tamed in Cumulative Knowledge Processes

要約 私たちは、新しい知識単位の妥当性が、その導出の正確さと、それが依存する単位 … 続きを読む

カテゴリー: cs.AI, cs.DS, cs.SI, math.PR | Errors are Robustly Tamed in Cumulative Knowledge Processes はコメントを受け付けていません

Neural Laplace for learning Stochastic Differential Equations

要約 Neural Laplace は、さまざまなクラスの微分方程式 (DE) … 続きを読む

カテゴリー: cs.AI, cs.LG, math.PR | Neural Laplace for learning Stochastic Differential Equations はコメントを受け付けていません