math.PR」カテゴリーアーカイブ

Polynomially Over-Parameterized Convolutional Neural Networks Contain Structured Strong Winning Lottery Tickets

要約 強力な宝くじチケット仮説 (SLTH) では、ランダムに初期化されたニュー … 続きを読む

カテゴリー: cs.LG, math.PR | Polynomially Over-Parameterized Convolutional Neural Networks Contain Structured Strong Winning Lottery Tickets はコメントを受け付けていません

Analyzing Deviations of Dyadic Lines in Fast Hough Transform

要約 高速ハフ変換は、パターン認識で広く使用されているアルゴリズムです。 このア … 続きを読む

カテゴリー: cs.CV, math.PR | Analyzing Deviations of Dyadic Lines in Fast Hough Transform はコメントを受け付けていません

Supervised learning with probabilistic morphisms and kernel mean embeddings

要約 この論文では、正しい損失関数の概念を使用して、教師あり学習への 2 つのア … 続きを読む

カテゴリー: 18N99, 46N30, 60B10, 62G05, cs.LG, math.CT, math.FA, math.PR, math.ST, stat.TH | Supervised learning with probabilistic morphisms and kernel mean embeddings はコメントを受け付けていません

ExpM+NF: Differentially Private Machine Learning that Surpasses DPSGD

要約 この先駆的な研究では、Exponential Mechanism (Exp … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, math.PR, stat.ML | ExpM+NF: Differentially Private Machine Learning that Surpasses DPSGD はコメントを受け付けていません

The convergence of the Stochastic Gradient Descent (SGD) : a self-contained proof

要約 ここでは、自己完結型の確率的勾配降下法 (SGD) の収束の証明を示します … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | The convergence of the Stochastic Gradient Descent (SGD) : a self-contained proof はコメントを受け付けていません

Reducing the Need for Backpropagation and Discovering Better Optima With Explicit Optimizations of Neural Networks

要約 バックプロパゲーションに依存する反復差分近似法により、ニューラル ネットワ … 続きを読む

カテゴリー: cs.LG, math.PR, physics.data-an, stat.ML | Reducing the Need for Backpropagation and Discovering Better Optima With Explicit Optimizations of Neural Networks はコメントを受け付けていません

Explicit Foundation Model Optimization with Self-Attentive Feed-Forward Neural Units

要約 バックプロパゲーションを使用した反復近似法はニューラル ネットワークの最適 … 続きを読む

カテゴリー: cs.LG, math.PR, physics.data-an, stat.ML | Explicit Foundation Model Optimization with Self-Attentive Feed-Forward Neural Units はコメントを受け付けていません

Inference for Probabilistic Dependency Graphs

要約 確率的依存関係グラフ (PDG) は、ベイジアン ネットワークとファクター … 続きを読む

カテゴリー: cs.AI, cs.CC, cs.DS, math.PR | Inference for Probabilistic Dependency Graphs はコメントを受け付けていません

Approximating Langevin Monte Carlo with ResNet-like Neural Network architectures

要約 単純な参照からサンプルをマッピングするニューラル ネットワークを構築するこ … 続きを読む

カテゴリー: cs.LG, math.PR, math.ST, stat.ML, stat.TH | Approximating Langevin Monte Carlo with ResNet-like Neural Network architectures はコメントを受け付けていません

Optimal data pooling for shared learning in maintenance operations

要約 私たちは、状態ベースのメンテナンスとスペアパーツ管理という 2 つの一般的 … 続きを読む

カテゴリー: cs.LG, math.PR | Optimal data pooling for shared learning in maintenance operations はコメントを受け付けていません