math.PR」カテゴリーアーカイブ

Sliding down the stairs: how correlated latent variables accelerate learning with neural networks

要約 ニューラル ネットワークは、確率的勾配降下法 (SGD) を使用してデータ … 続きを読む

カテゴリー: cond-mat.stat-mech, cs.LG, math.PR, math.ST, stat.ML, stat.TH | Sliding down the stairs: how correlated latent variables accelerate learning with neural networks はコメントを受け付けていません

Combining Statistical Depth and Fermat Distance for Uncertainty Quantification

要約 私たちは、フェルマー距離と組み合わせた「レンズ深度」(LD) と呼ばれる統 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.PR, stat.AP, stat.ML | Combining Statistical Depth and Fermat Distance for Uncertainty Quantification はコメントを受け付けていません

Neural Hilbert Ladders: Multi-Layer Neural Networks in Function Space

要約 ニューラル ネットワーク (NN) によって探索される関数空間を特徴付ける … 続きを読む

カテゴリー: cs.LG, math.FA, math.OC, math.PR, stat.ML | Neural Hilbert Ladders: Multi-Layer Neural Networks in Function Space はコメントを受け付けていません

Is Learning in Biological Neural Networks based on Stochastic Gradient Descent? An analysis using stochastic processes

要約 近年、生物学的ニューラル ネットワーク (BNN) での学習が人工ニューラ … 続きを読む

カテゴリー: 68T07, 92C20, cs.LG, cs.NE, math.PR, q-bio.NC | Is Learning in Biological Neural Networks based on Stochastic Gradient Descent? An analysis using stochastic processes はコメントを受け付けていません

Conditioning of Banach Space Valued Gaussian Random Variables: An Approximation Approach Based on Martingales

要約 本論文では、2つのバナッハ空間のガウス確率変数の条件付き分布について研究す … 続きを読む

カテゴリー: cs.LG, math.PR, math.ST, stat.TH | Conditioning of Banach Space Valued Gaussian Random Variables: An Approximation Approach Based on Martingales はコメントを受け付けていません

Random Vector Functional Link Networks for Function Approximation on Manifolds

要約 フィードフォワード ニューラル ネットワークの学習速度は遅いことで悪名高く … 続きを読む

カテゴリー: 62M45, cs.IT, cs.LG, math.IT, math.PR, stat.ML | Random Vector Functional Link Networks for Function Approximation on Manifolds はコメントを受け付けていません

Convergence of SGD for Training Neural Networks with Sliced Wasserstein Losses

要約 Optimal Transport は近年、特に確率尺度を比較する幾何学的 … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR | Convergence of SGD for Training Neural Networks with Sliced Wasserstein Losses はコメントを受け付けていません

Properties of Discrete Sliced Wasserstein Losses

要約 スライス ワッサーシュタイン (SW) 距離は、確率尺度を比較するためのワ … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR, stat.ML | Properties of Discrete Sliced Wasserstein Losses はコメントを受け付けていません

Multistatic-Radar RCS-Signature Recognition of Aerial Vehicles: A Bayesian Fusion Approach

要約 無人航空機 (UAV) のレーダー自動目標認識 (RATR) には、電磁波 … 続きを読む

カテゴリー: cs.CV, cs.LG, eess.SP, math.PR, stat.ML | Multistatic-Radar RCS-Signature Recognition of Aerial Vehicles: A Bayesian Fusion Approach はコメントを受け付けていません

Polygonal Unadjusted Langevin Algorithms: Creating stable and efficient adaptive algorithms for neural networks

要約 我々は、ディープラーニングモデルの微調整に現在使用されている一般的な適応的 … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR, stat.ML | Polygonal Unadjusted Langevin Algorithms: Creating stable and efficient adaptive algorithms for neural networks はコメントを受け付けていません