math.ST」カテゴリーアーカイブ

Doubly Robust Regression Discontinuity Designs

要約 この研究では、回帰不連続性 (RD) 設計のための二重ロバスト (DR) … 続きを読む

カテゴリー: cs.LG, econ.EM, math.ST, stat.ME, stat.ML, stat.TH | Doubly Robust Regression Discontinuity Designs はコメントを受け付けていません

Adaptive Refinement Protocols for Distributed Distribution Estimation under $\ell^p$-Losses

要約 $\ell^p$ 損失の下での離散分布の通信制約推定を考えてみましょう。各 … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, math.ST, stat.TH | Adaptive Refinement Protocols for Distributed Distribution Estimation under $\ell^p$-Losses はコメントを受け付けていません

Triple Component Matrix Factorization: Untangling Global, Local, and Noisy Components

要約 この研究では、ノイズの多いデータからの共通および固有の特徴抽出の問題を研究 … 続きを読む

カテゴリー: cs.LG, math.ST, stat.TH | Triple Component Matrix Factorization: Untangling Global, Local, and Noisy Components はコメントを受け付けていません

Pseudo-Labeling for Kernel Ridge Regression under Covariate Shift

要約 私たちは、共変量シフトの下でカーネルリッジ回帰に対する原則的なアプローチを … 続きを読む

カテゴリー: 62G05, 62J07, cs.LG, math.ST, stat.ME, stat.ML, stat.TH | Pseudo-Labeling for Kernel Ridge Regression under Covariate Shift はコメントを受け付けていません

The ODE Method for Asymptotic Statistics in Stochastic Approximation and Reinforcement Learning

要約 この論文は $d$ 次元の確率的近似再帰 $$ \theta_{n+1}= … 続きを読む

カテゴリー: 60F17, 62L20, 68T05, cs.LG, math.ST, stat.TH | The ODE Method for Asymptotic Statistics in Stochastic Approximation and Reinforcement Learning はコメントを受け付けていません

Sampling Strategies in Bayesian Inversion: A Study of RTO and Langevin Methods

要約 この論文では、逆問題を解くための 2 つのクラスのサンプリング手法、つまり … 続きを読む

カテゴリー: 62C10, 62F15, 65C05, 65D18, 65K05, 65K10, 68Q25, 68U10, 90C25, cs.CV, eess.IV, math.ST, stat.TH | Sampling Strategies in Bayesian Inversion: A Study of RTO and Langevin Methods はコメントを受け付けていません

Variable Selection in Convex Piecewise Linear Regression

要約 この論文では、凸区分線形回帰における変数選択の解決策として、疎勾配降下法を … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, math.ST, stat.ML, stat.TH | Variable Selection in Convex Piecewise Linear Regression はコメントを受け付けていません

Sample-Efficient Private Learning of Mixtures of Gaussians

要約 近似差分プライバシーを備えたガウス分布の混合学習の問題を研究します。 $k … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.ML, stat.TH | Sample-Efficient Private Learning of Mixtures of Gaussians はコメントを受け付けていません

Double Descent Meets Out-of-Distribution Detection: Theoretical Insights and Empirical Analysis on the role of model complexity

要約 過剰パラメータ化は一般化に利益をもたらすことが知られていますが、配信外 ( … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.LG, math.ST, stat.ML, stat.TH | Double Descent Meets Out-of-Distribution Detection: Theoretical Insights and Empirical Analysis on the role of model complexity はコメントを受け付けていません

Nyström Kernel Stein Discrepancy

要約 カーネル法はデータ科学や統計学で最も成功したアプローチの多くを支えており、 … 続きを読む

カテゴリー: (Primary), cs.LG, G.3, math.ST, stat.ML, stat.TH | Nyström Kernel Stein Discrepancy はコメントを受け付けていません