math.PR」カテゴリーアーカイブ

On diffusion-based generative models and their error bounds: The log-concave case with full convergence estimates

要約 私たちは、強い対数凹データ分布の仮定の下で、拡散ベースの生成モデルの収束挙 … 続きを読む

カテゴリー: cs.LG, math.OC, math.PR, stat.ML | On diffusion-based generative models and their error bounds: The log-concave case with full convergence estimates はコメントを受け付けていません

A novel approach to measuring patent claim scope based on probabilities obtained from (large) language models

要約 この研究は、特許請求の範囲を、この請求の範囲に含まれる自己情報の逆数として … 続きを読む

カテゴリー: 60E05, 62P99, cs.CL, cs.IT, cs.LG, G.3, math.IT, math.PR | A novel approach to measuring patent claim scope based on probabilities obtained from (large) language models はコメントを受け付けていません

Inferential Moments of Uncertain Multivariable Systems

要約 この記事では、ベイズ推論のフレームワークを拡張し、通常は情報理論で処理され … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, math.PR, physics.data-an, stat.ML | Inferential Moments of Uncertain Multivariable Systems はコメントを受け付けていません

Polynomially Over-Parameterized Convolutional Neural Networks Contain Structured Strong Winning Lottery Tickets

要約 強力な宝くじチケット仮説 (SLTH) では、ランダムに初期化されたニュー … 続きを読む

カテゴリー: cs.LG, math.PR | Polynomially Over-Parameterized Convolutional Neural Networks Contain Structured Strong Winning Lottery Tickets はコメントを受け付けていません

Analyzing Deviations of Dyadic Lines in Fast Hough Transform

要約 高速ハフ変換は、パターン認識で広く使用されているアルゴリズムです。 このア … 続きを読む

カテゴリー: cs.CV, math.PR | Analyzing Deviations of Dyadic Lines in Fast Hough Transform はコメントを受け付けていません

Supervised learning with probabilistic morphisms and kernel mean embeddings

要約 この論文では、正しい損失関数の概念を使用して、教師あり学習への 2 つのア … 続きを読む

カテゴリー: 18N99, 46N30, 60B10, 62G05, cs.LG, math.CT, math.FA, math.PR, math.ST, stat.TH | Supervised learning with probabilistic morphisms and kernel mean embeddings はコメントを受け付けていません

ExpM+NF: Differentially Private Machine Learning that Surpasses DPSGD

要約 この先駆的な研究では、Exponential Mechanism (Exp … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, math.PR, stat.ML | ExpM+NF: Differentially Private Machine Learning that Surpasses DPSGD はコメントを受け付けていません

The convergence of the Stochastic Gradient Descent (SGD) : a self-contained proof

要約 ここでは、自己完結型の確率的勾配降下法 (SGD) の収束の証明を示します … 続きを読む

カテゴリー: cs.LG, math.PR, stat.ML | The convergence of the Stochastic Gradient Descent (SGD) : a self-contained proof はコメントを受け付けていません

Reducing the Need for Backpropagation and Discovering Better Optima With Explicit Optimizations of Neural Networks

要約 バックプロパゲーションに依存する反復差分近似法により、ニューラル ネットワ … 続きを読む

カテゴリー: cs.LG, math.PR, physics.data-an, stat.ML | Reducing the Need for Backpropagation and Discovering Better Optima With Explicit Optimizations of Neural Networks はコメントを受け付けていません

Explicit Foundation Model Optimization with Self-Attentive Feed-Forward Neural Units

要約 バックプロパゲーションを使用した反復近似法はニューラル ネットワークの最適 … 続きを読む

カテゴリー: cs.LG, math.PR, physics.data-an, stat.ML | Explicit Foundation Model Optimization with Self-Attentive Feed-Forward Neural Units はコメントを受け付けていません