math.ST」カテゴリーアーカイブ

Convergence of stochastic gradient descent schemes for Lojasiewicz-landscapes

要約 この記事では、基礎となる状況に関する弱い仮定の下で、運動量確率的勾配降下法 … 続きを読む

カテゴリー: 60J20, 62L20, 65C05, cs.LG, math.PR, math.ST, stat.TH | Convergence of stochastic gradient descent schemes for Lojasiewicz-landscapes はコメントを受け付けていません

Mixture of multilayer stochastic block models for multiview clustering

要約 この研究では、異なる情報源から得られる複数のクラスタリングを集約するための … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | Mixture of multilayer stochastic block models for multiview clustering はコメントを受け付けていません

A non-asymptotic distributional theory of approximate message passing for sparse and robust regression

要約 高次元における古典的な漸近理論の崩壊により、高次元の統計的推定量の分布を特 … 続きを読む

カテゴリー: cs.IT, cs.LG, eess.SP, math.IT, math.ST, stat.ML, stat.TH | A non-asymptotic distributional theory of approximate message passing for sparse and robust regression はコメントを受け付けていません

Convex SGD: Generalization Without Early Stopping

要約 コンパクトな集合上の滑らかな凸関数の確率的勾配降下法に関連する汎化誤差を考 … 続きを読む

カテゴリー: cs.LG, math.ST, stat.TH | Convex SGD: Generalization Without Early Stopping はコメントを受け付けていません

Compression, Generalization and Learning

要約 圧縮関数は、その情報内容を保持しながら、観測セットを縮小サイズのサブセット … 続きを読む

カテゴリー: cs.AI, cs.LG, math.ST, stat.ML, stat.TH | Compression, Generalization and Learning はコメントを受け付けていません

On the hardness of learning under symmetries

要約 我々は、勾配降下法による等変量ニューラルネットワークの学習問題を研究してい … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.ML, stat.TH | On the hardness of learning under symmetries はコメントを受け付けていません

A unified recipe for deriving (time-uniform) PAC-Bayes bounds

要約 我々は、PAC-ベイズ一般化境界を導出するための統一的な枠組みを提示する。 … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, math.ST, stat.ML, stat.TH | A unified recipe for deriving (time-uniform) PAC-Bayes bounds はコメントを受け付けていません

Transfer Learning for Causal Effect Estimation

要約 限られたデータにおける因果効果の推定精度を向上させることを目的として、ター … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ME, stat.ML, stat.TH | Transfer Learning for Causal Effect Estimation はコメントを受け付けていません

On the rate of convergence of an over-parametrized Transformer classifier learned by gradient descent

要約 人工知能における最新の魅力的な進歩の 1 つは、人間の会話をシミュレートで … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | On the rate of convergence of an over-parametrized Transformer classifier learned by gradient descent はコメントを受け付けていません

Robust Unsupervised Multi-task and Transfer Learning on Gaussian Mixture Models

要約 教師なし学習は、多くの実世界のアプリケーションで広く使用されています。 最 … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ME, stat.ML, stat.TH | Robust Unsupervised Multi-task and Transfer Learning on Gaussian Mixture Models はコメントを受け付けていません