math.PR」カテゴリーアーカイブ

Conditional expectation using compactification operators

要約 ノイズ除去、最小二乗期待値、および多様体学習という個別のタスクは、多くの場 … 続きを読む

カテゴリー: 46E22, 46E27, 62G05, 62G07, cs.LG, math.FA, math.PR, stat.ML | Conditional expectation using compactification operators はコメントを受け付けていません

Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems

要約 ワイド ニューラル ネットワークなどの深層学習モデルは、相互作用する多数の … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, hep-th, math.PR, stat.ML | Weak Correlations as the Underlying Principle for Linearization of Gradient-Based Learning Systems はコメントを受け付けていません

Matrices with Gaussian noise: optimal estimates for singular subspace perturbation

要約 Davis-Kahan-Wedin $\sin \Theta$ 定理は、小 … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, math.PR, stat.ML | Matrices with Gaussian noise: optimal estimates for singular subspace perturbation はコメントを受け付けていません

Sample Path Regularity of Gaussian Processes from the Covariance Kernel

要約 ガウス過程 (GP) は、関数空間にわたる確率分布を定義するための最も一般 … 続きを読む

カテゴリー: cs.LG, math.PR, math.ST, stat.ML, stat.TH | Sample Path Regularity of Gaussian Processes from the Covariance Kernel はコメントを受け付けていません

The Rate-Distortion-Perception-Classification Tradeoff: Joint Source Coding and Modulation via Inverse-Domain GANs

要約 ジョイント ソース コーディングと変調 (JSCM) フレームワークは、デ … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.IT, cs.LG, math.IT, math.PR | The Rate-Distortion-Perception-Classification Tradeoff: Joint Source Coding and Modulation via Inverse-Domain GANs はコメントを受け付けていません

\emph{Lifted} RDT based capacity analysis of the 1-hidden layer treelike \emph{sign} perceptrons neural networks

要約 多層 \emph{sign} パーセプトロン ニューラル ネットワーク ( … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.IT, cs.LG, math-ph, math.IT, math.MP, math.PR, stat.ML | \emph{Lifted} RDT based capacity analysis of the 1-hidden layer treelike \emph{sign} perceptrons neural networks はコメントを受け付けていません

Score-Aware Policy-Gradient Methods and Performance Guarantees using Local Lyapunov Conditions: Applications to Product-Form Stochastic Networks and Queueing Systems

要約 確率的ネットワークとキュー システムは、多くの場合、大きな状態空間とアクシ … 続きを読む

カテゴリー: cs.LG, cs.PF, math.OC, math.PR | Score-Aware Policy-Gradient Methods and Performance Guarantees using Local Lyapunov Conditions: Applications to Product-Form Stochastic Networks and Queueing Systems はコメントを受け付けていません

Convergence Rates for Stochastic Approximation: Biased Noise with Unbounded Variance, and Applications

要約 1951 年に Robbins と Monro によって導入された確率的近 … 続きを読む

カテゴリー: 60G17, 62L20, 93D05, cs.LG, math.OC, math.PR, stat.ML | Convergence Rates for Stochastic Approximation: Biased Noise with Unbounded Variance, and Applications はコメントを受け付けていません

Stochastic Optimal Control Matching

要約 確率的最適制御は、ノイズの多いシステムの振る舞いを制御することを目的として … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, math.OC, math.PR, stat.ML | Stochastic Optimal Control Matching はコメントを受け付けていません

From Monte Carlo to neural networks approximations of boundary value problems

要約 本論文では、一般的な有界領域$mathbb{R}^d$において、H&#82 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.NA, math.AP, math.NA, math.PR | From Monte Carlo to neural networks approximations of boundary value problems はコメントを受け付けていません