math.PR」カテゴリーアーカイブ

Supervised learning with probabilistic morphisms and kernel mean embeddings

要約 この論文では、正しい損失関数の概念を使用して、教師あり学習への 2 つのア … 続きを読む

カテゴリー: 18N99, 46N30, 60B10, 62G05, cs.LG, math.CT, math.FA, math.PR, math.ST, stat.TH | Supervised learning with probabilistic morphisms and kernel mean embeddings はコメントを受け付けていません

ExpM+NF: Differentially Private Machine Learning that Surpasses DPSGD

要約 この先駆的な研究では、Exponential Mechanism (Exp … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, math.PR, stat.ML | ExpM+NF: Differentially Private Machine Learning that Surpasses DPSGD はコメントを受け付けていません

The convergence of the Stochastic Gradient Descent (SGD) : a self-contained proof

要約 ここでは、自己完結型の確率的勾配降下法 (SGD) の収束の証明を示します … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | The convergence of the Stochastic Gradient Descent (SGD) : a self-contained proof はコメントを受け付けていません

Reducing the Need for Backpropagation and Discovering Better Optima With Explicit Optimizations of Neural Networks

要約 バックプロパゲーションに依存する反復差分近似法により、ニューラル ネットワ … 続きを読む

カテゴリー: cs.LG, math.PR, physics.data-an, stat.ML | Reducing the Need for Backpropagation and Discovering Better Optima With Explicit Optimizations of Neural Networks はコメントを受け付けていません

Explicit Foundation Model Optimization with Self-Attentive Feed-Forward Neural Units

要約 バックプロパゲーションを使用した反復近似法はニューラル ネットワークの最適 … 続きを読む

カテゴリー: cs.LG, math.PR, physics.data-an, stat.ML | Explicit Foundation Model Optimization with Self-Attentive Feed-Forward Neural Units はコメントを受け付けていません

Inference for Probabilistic Dependency Graphs

要約 確率的依存関係グラフ (PDG) は、ベイジアン ネットワークとファクター … 続きを読む

カテゴリー: cs.AI, cs.CC, cs.DS, math.PR | Inference for Probabilistic Dependency Graphs はコメントを受け付けていません

Approximating Langevin Monte Carlo with ResNet-like Neural Network architectures

要約 単純な参照からサンプルをマッピングするニューラル ネットワークを構築するこ … 続きを読む

カテゴリー: cs.LG, math.PR, math.ST, stat.ML, stat.TH | Approximating Langevin Monte Carlo with ResNet-like Neural Network architectures はコメントを受け付けていません

Optimal data pooling for shared learning in maintenance operations

要約 私たちは、状態ベースのメンテナンスとスペアパーツ管理という 2 つの一般的 … 続きを読む

カテゴリー: cs.LG, math.PR | Optimal data pooling for shared learning in maintenance operations はコメントを受け付けていません

On the Lipschitz constant of random neural networks

要約 実証研究は、ニューラル ネットワークが入力の小さな敵対的な摂動に非常に敏感 … 続きを読む

カテゴリー: 26A16, 60B20, 60G15, 68T07, cs.LG, math.PR, stat.ML | On the Lipschitz constant of random neural networks はコメントを受け付けていません

Contrastive Moments: Unsupervised Halfspace Learning in Polynomial Time

要約 アンビエント分布が(未知の)対称関数の$d$倍積の未知のアフィン変換である … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | Contrastive Moments: Unsupervised Halfspace Learning in Polynomial Time はコメントを受け付けていません