math.PR」カテゴリーアーカイブ

How Flawed Is ECE? An Analysis via Logit Smoothing

要約 非公式には、モデルの予測が予測の信頼度と一致する確率で正しい場合、モデルは … 続きを読む

カテゴリー: (Primary), 60E05, cs.LG, math.PR | How Flawed Is ECE? An Analysis via Logit Smoothing はコメントを受け付けていません

Entropy annealing for policy mirror descent in continuous time and space

要約 エントロピー正則化は、最適化ランドスケープを正則化し、収束を加速するために … 続きを読む

カテゴリー: (Primary), 35J61, 49M29, 60H30, 68Q25, cs.LG, math.OC, math.PR | Entropy annealing for policy mirror descent in continuous time and space はコメントを受け付けていません

MCGAN: Enhancing GAN Training with Regression-Based Generator Loss

要約 敵対的生成ネットワーク (GAN) は、忠実度の高いデータを生成するための … 続きを読む

カテゴリー: cs.CV, math.PR | MCGAN: Enhancing GAN Training with Regression-Based Generator Loss はコメントを受け付けていません

Reducing the cost of posterior sampling in linear inverse problems via task-dependent score learning

要約 スコアベースの拡散モデル (SDM) は、さまざまなベイジアン逆問題で事後 … 続きを読む

カテゴリー: 60Hxx, 60Jxx, 62F15, 65N21, 68Q32, cs.LG, cs.NA, math.AP, math.NA, math.PR, stat.ML | Reducing the cost of posterior sampling in linear inverse problems via task-dependent score learning はコメントを受け付けていません

Learning the Infinitesimal Generator of Stochastic Diffusion Processes

要約 私たちは、自然および物理システムの数値シミュレーションを理解するために不可 … 続きを読む

カテゴリー: 62M15, cs.LG, math.PR, stat.ML | Learning the Infinitesimal Generator of Stochastic Diffusion Processes はコメントを受け付けていません

Metric Entropy-Free Sample Complexity Bounds for Sample Average Approximation in Convex Stochastic Programming

要約 この論文では、凸または強凸の確率計画法問題を解く際のサンプル平均近似 (S … 続きを読む

カテゴリー: 60-08, 90C15, 90C25, cs.LG, math.OC, math.PR, math.ST, stat.TH | Metric Entropy-Free Sample Complexity Bounds for Sample Average Approximation in Convex Stochastic Programming はコメントを受け付けていません

Fast Collision Probability Estimation for Automated Driving using Multi-circular Shape Approximations

要約 自動運転のための安全性評価と動作計画のための多くの最先端の方法では、衝突確 … 続きを読む

カテゴリー: cs.RO, math.PR | Fast Collision Probability Estimation for Automated Driving using Multi-circular Shape Approximations はコメントを受け付けていません

Random ReLU Neural Networks as Non-Gaussian Processes

要約 ランダムに初期化されたパラメータと修正された線形ユニット活性化関数を備えた … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Random ReLU Neural Networks as Non-Gaussian Processes はコメントを受け付けていません

Kernel Limit of Recurrent Neural Networks Trained on Ergodic Data Sequences

要約 隠れユニットの数、シーケンス内のデータ サンプル、隠れ状態の更新、トレーニ … 続きを読む

カテゴリー: (Primary), 60J20, 68T05, cs.LG, math.PR, stat.ML | Kernel Limit of Recurrent Neural Networks Trained on Ergodic Data Sequences はコメントを受け付けていません

Spectral complexity of deep neural networks

要約 ランダムに初期化され、前進し、完全に接続されたニューラル ネットワークは、 … 続きを読む

カテゴリー: 33C55, 60G60, 62M15, 68T07, cs.LG, math.PR, stat.ML | Spectral complexity of deep neural networks はコメントを受け付けていません