math.ST」カテゴリーアーカイブ

A Sub-Quadratic Time Algorithm for Robust Sparse Mean Estimation

要約 敵対的外れ値が存在する場合の疎な平均推定のアルゴリズムの問​​題を研究しま … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.ML, stat.TH | A Sub-Quadratic Time Algorithm for Robust Sparse Mean Estimation はコメントを受け付けていません

SQ Lower Bounds for Non-Gaussian Component Analysis with Weaker Assumptions

要約 統計クエリ (SQ) モデルにおける非ガウス成分分析 (NGCA) の複雑 … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.ML, stat.TH | SQ Lower Bounds for Non-Gaussian Component Analysis with Weaker Assumptions はコメントを受け付けていません

Nonparametric Linear Feature Learning in Regression Through Regularisation

要約 表現学習は、特にノンパラメトリック手法では困難が多い高次元データのコンテキ … 続きを読む

カテゴリー: 62F10, 62G08, 65K10, cs.AI, cs.LG, I.2.6, math.ST, stat.ME, stat.TH | Nonparametric Linear Feature Learning in Regression Through Regularisation はコメントを受け付けていません

Zeroth-Order Sampling Methods for Non-Log-Concave Distributions: Alleviating Metastability by Denoising Diffusion

要約 この論文では、正規化されていない密度のクエリに基づいて、非対数凹分布からの … 続きを読む

カテゴリー: cs.LG, math.PR, math.ST, stat.ME, stat.ML, stat.TH | Zeroth-Order Sampling Methods for Non-Log-Concave Distributions: Alleviating Metastability by Denoising Diffusion はコメントを受け付けていません

Training Dynamics of Multi-Head Softmax Attention for In-Context Learning: Emergence, Convergence, and Optimality

要約 マルチタスク線形回帰のインコンテキスト学習のためのマルチヘッド ソフトマッ … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC, math.ST, stat.ML, stat.TH | Training Dynamics of Multi-Head Softmax Attention for In-Context Learning: Emergence, Convergence, and Optimality はコメントを受け付けていません

Inference for Heteroskedastic PCA with Missing Data

要約 この論文では、主成分分析 (PCA) の信頼領域を高次元で構築する方法を研 … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, math.ST, stat.ME, stat.ML, stat.TH | Inference for Heteroskedastic PCA with Missing Data はコメントを受け付けていません

Batched Nonparametric Contextual Bandits

要約 私たちは、バッチ制約の下でノンパラメトリックなコンテキスト バンディットを … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | Batched Nonparametric Contextual Bandits はコメントを受け付けていません

Robustly Learning Single-Index Models via Alignment Sharpness

要約 不可知論的モデルにおける $L_2^2$ 損失の下での単一インデックス モ … 続きを読む

カテゴリー: cs.DS, cs.LG, math.OC, math.ST, stat.ML, stat.TH | Robustly Learning Single-Index Models via Alignment Sharpness はコメントを受け付けていません

Training Implicit Generative Models via an Invariant Statistical Loss

要約 暗黙的な生成モデルには、任意の複雑なデータ分布を学習する機能があります。 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.ST, stat.ML, stat.TH | Training Implicit Generative Models via an Invariant Statistical Loss はコメントを受け付けていません

Lasso with Latents: Efficient Estimation, Covariate Rescaling, and Computational-Statistical Gaps

要約 対象の共変量に強い相関がある場合、Lasso の統計的パフォーマンスが大幅 … 続きを読む

カテゴリー: cs.CC, cs.DS, cs.LG, math.ST, stat.ML, stat.TH | Lasso with Latents: Efficient Estimation, Covariate Rescaling, and Computational-Statistical Gaps はコメントを受け付けていません