math.ST」カテゴリーアーカイブ

A Statistical Framework of Watermarks for Large Language Models: Pivot, Detection Efficiency and Optimal Rules

要約 ChatGPT が 2022 年 11 月に導入されて以来、大規模言語モデ … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG, math.ST, stat.ML, stat.TH | A Statistical Framework of Watermarks for Large Language Models: Pivot, Detection Efficiency and Optimal Rules はコメントを受け付けていません

Statistical learning theory and Occam’s razor: The core argument

要約 統計学習理論は、帰納的推論において単純性を優先することを推奨するオッカムの … 続きを読む

カテゴリー: cs.LG, math.ST, stat.TH | Statistical learning theory and Occam’s razor: The core argument はコメントを受け付けていません

Markov Equivalence and Consistency in Differentiable Structure Learning

要約 有向非巡回グラフ (DAG) の微分可能構造学習に対する既存のアプローチは … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ME, stat.ML, stat.TH | Markov Equivalence and Consistency in Differentiable Structure Learning はコメントを受け付けていません

Improving the Convergence Rates of Forward Gradient Descent with Repeated Sampling

要約 前方勾配降下法 (FGD) は、後方パスなしで計算できるため、生物学的に最 … 続きを読む

カテゴリー: 62J05, 62L20, cs.LG, cs.NE, math.ST, stat.TH | Improving the Convergence Rates of Forward Gradient Descent with Repeated Sampling はコメントを受け付けていません

Dimension-independent rates for structured neural density estimation

要約 私たちは、ディープ ニューラル ネットワークが、画像、音声、ビデオ、テキス … 続きを読む

カテゴリー: 60J10, 60J20, 62A09, 62G05, 62G07, 62M05, 62M40, cs.CV, cs.LG, G.3, math.ST, stat.ML, stat.TH | Dimension-independent rates for structured neural density estimation はコメントを受け付けていません

On the Sample Complexity of One Hidden Layer Networks with Equivariance, Locality and Weight Sharing

要約 畳み込みニューラル ネットワークと同様、重み共有、等分散、ローカル フィル … 続きを読む

カテゴリー: 68T07, cs.LG, math.ST, stat.ML, stat.TH | On the Sample Complexity of One Hidden Layer Networks with Equivariance, Locality and Weight Sharing はコメントを受け付けていません

Sampling and Integration of Logconcave Functions by Algorithmic Diffusion

要約 任意の対数凹関数のサンプリング、丸め、統合の複雑さを研究します。 私たちの … 続きを読む

カテゴリー: cs.DS, cs.LG, math.ST, stat.ML, stat.TH | Sampling and Integration of Logconcave Functions by Algorithmic Diffusion はコメントを受け付けていません

Debiased Regression for Root-N-Consistent Conditional Mean Estimation

要約 この研究では、高次元回帰推定量とノンパラメトリック回帰推定量を含む回帰推定 … 続きを読む

カテゴリー: cs.LG, econ.EM, math.ST, stat.ME, stat.ML, stat.TH | Debiased Regression for Root-N-Consistent Conditional Mean Estimation はコメントを受け付けていません

Feature-wise and Sample-wise Adaptive Transfer Learning for High-dimensional Linear Regression

要約 特徴量の次元がサンプル サイズよりも大きい、高次元の線形回帰設定で転移学習 … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ME, stat.ML, stat.TH | Feature-wise and Sample-wise Adaptive Transfer Learning for High-dimensional Linear Regression はコメントを受け付けていません

Debiased Regression for Root-N-Consistent Conditional Mean Estimation

要約 この研究では、高次元回帰推定量とノンパラメトリック回帰推定量を含む回帰推定 … 続きを読む

カテゴリー: cs.LG, econ.EM, math.ST, stat.ME, stat.ML, stat.TH | Debiased Regression for Root-N-Consistent Conditional Mean Estimation はコメントを受け付けていません