math.ST」カテゴリーアーカイブ

The Minimax Rate of HSIC Estimation for Translation-Invariant Kernels

要約 カーネル技術は、データ サイエンスと統計において最も影響力のあるアプローチ … 続きを読む

カテゴリー: 46E22, 47B32, 62C20, 62G10, 94A15, cs.IT, cs.LG, G.3, math.IT, math.ST, stat.ML, stat.TH | The Minimax Rate of HSIC Estimation for Translation-Invariant Kernels はコメントを受け付けていません

Settling the Sample Complexity of Model-Based Offline Reinforcement Learning

要約 この論文は、事前に収集されたデータをさらに探索せずに使用して学習するオフラ … 続きを読む

カテゴリー: cs.IT, cs.LG, cs.SY, eess.SY, math.IT, math.ST, stat.ML, stat.TH | Settling the Sample Complexity of Model-Based Offline Reinforcement Learning はコメントを受け付けていません

A Sub-Quadratic Time Algorithm for Robust Sparse Mean Estimation

要約 敵対的外れ値が存在する場合の疎な平均推定のアルゴリズムの問​​題を研究しま … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.ML, stat.TH | A Sub-Quadratic Time Algorithm for Robust Sparse Mean Estimation はコメントを受け付けていません

SQ Lower Bounds for Non-Gaussian Component Analysis with Weaker Assumptions

要約 統計クエリ (SQ) モデルにおける非ガウス成分分析 (NGCA) の複雑 … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.ML, stat.TH | SQ Lower Bounds for Non-Gaussian Component Analysis with Weaker Assumptions はコメントを受け付けていません

Nonparametric Linear Feature Learning in Regression Through Regularisation

要約 表現学習は、特にノンパラメトリック手法では困難が多い高次元データのコンテキ … 続きを読む

カテゴリー: 62F10, 62G08, 65K10, cs.AI, cs.LG, I.2.6, math.ST, stat.ME, stat.TH | Nonparametric Linear Feature Learning in Regression Through Regularisation はコメントを受け付けていません

Zeroth-Order Sampling Methods for Non-Log-Concave Distributions: Alleviating Metastability by Denoising Diffusion

要約 この論文では、正規化されていない密度のクエリに基づいて、非対数凹分布からの … 続きを読む

カテゴリー: cs.LG, math.PR, math.ST, stat.ME, stat.ML, stat.TH | Zeroth-Order Sampling Methods for Non-Log-Concave Distributions: Alleviating Metastability by Denoising Diffusion はコメントを受け付けていません

Training Dynamics of Multi-Head Softmax Attention for In-Context Learning: Emergence, Convergence, and Optimality

要約 マルチタスク線形回帰のインコンテキスト学習のためのマルチヘッド ソフトマッ … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC, math.ST, stat.ML, stat.TH | Training Dynamics of Multi-Head Softmax Attention for In-Context Learning: Emergence, Convergence, and Optimality はコメントを受け付けていません

Inference for Heteroskedastic PCA with Missing Data

要約 この論文では、主成分分析 (PCA) の信頼領域を高次元で構築する方法を研 … 続きを読む

カテゴリー: cs.IT, cs.LG, math.IT, math.ST, stat.ME, stat.ML, stat.TH | Inference for Heteroskedastic PCA with Missing Data はコメントを受け付けていません

Batched Nonparametric Contextual Bandits

要約 私たちは、バッチ制約の下でノンパラメトリックなコンテキスト バンディットを … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | Batched Nonparametric Contextual Bandits はコメントを受け付けていません

Robustly Learning Single-Index Models via Alignment Sharpness

要約 不可知論的モデルにおける $L_2^2$ 損失の下での単一インデックス モ … 続きを読む

カテゴリー: cs.DS, cs.LG, math.OC, math.ST, stat.ML, stat.TH | Robustly Learning Single-Index Models via Alignment Sharpness はコメントを受け付けていません