stat.ML」カテゴリーアーカイブ

This Too Shall Pass: Removing Stale Observations in Dynamic Bayesian Optimization

要約 ベイジアン最適化 (BO) は、静的でノイズが多く、評価コストがかかるブラ … 続きを読む

カテゴリー: cs.LG, stat.ML | This Too Shall Pass: Removing Stale Observations in Dynamic Bayesian Optimization はコメントを受け付けていません

A Trust-Region Method for Graphical Stein Variational Inference

要約 スタイン変分推論 (SVI) は、サンプルベースの近似ベイズ推論手法であり … 続きを読む

カテゴリー: cs.LG, stat.ML | A Trust-Region Method for Graphical Stein Variational Inference はコメントを受け付けていません

Theoretical Limitations of Ensembles in the Age of Overparameterization

要約 古典的なツリーベースのアンサンブルは、単一のデシジョン ツリーよりも優れた … 続きを読む

カテゴリー: cs.LG, stat.ML | Theoretical Limitations of Ensembles in the Age of Overparameterization はコメントを受け付けていません

Generation through the lens of learning theory

要約 私たちは統計学習理論のレンズを通して生成を研究します。 まず、抽象インスタ … 続きを読む

カテゴリー: cs.LG, stat.ML | Generation through the lens of learning theory はコメントを受け付けていません

Implicit Regularization for Tubal Tensor Factorizations via Gradient Descent

要約 遅延トレーニング方式を超えた、オーバーパラメータ化されたテンソル因数分解問 … 続きを読む

カテゴリー: cs.LG, math.OC, math.ST, stat.ML, stat.TH | Implicit Regularization for Tubal Tensor Factorizations via Gradient Descent はコメントを受け付けていません

Generalized Group Data Attribution

要約 データ アトリビューション (DA) メソッドは、モデル出力に対する個々の … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Generalized Group Data Attribution はコメントを受け付けていません

Pre-processing and Compression: Understanding Hidden Representation Refinement Across Imaging Domains via Intrinsic Dimension

要約 近年、ニューラル ネットワークの隠れた表現の固有次元 (ID) などの幾何 … 続きを読む

カテゴリー: cs.CV, cs.LG, eess.IV, stat.ML | Pre-processing and Compression: Understanding Hidden Representation Refinement Across Imaging Domains via Intrinsic Dimension はコメントを受け付けていません

Diffusion-based Semi-supervised Spectral Algorithm for Regression on Manifolds

要約 我々は、高次元データ、特に低次元多様体内に埋め込まれたデータの回帰分析に取 … 続きを読む

カテゴリー: cs.LG, stat.ML | Diffusion-based Semi-supervised Spectral Algorithm for Regression on Manifolds はコメントを受け付けていません

Retraining with Predicted Hard Labels Provably Increases Model Accuracy

要約 \textit{ノイズのあるラベル} でトレーニングされたモデルのパフォー … 続きを読む

カテゴリー: cs.CR, cs.LG, stat.ML | Retraining with Predicted Hard Labels Provably Increases Model Accuracy はコメントを受け付けていません

A Lipschitz spaces view of infinitely wide shallow neural networks

要約 活性化関数の規則性と成長を考慮した無制限のパラメータ空間と双対性ペアリング … 続きを読む

カテゴリー: 46B20, 46E27, 68T07, cs.LG, math.FA, stat.ML | A Lipschitz spaces view of infinitely wide shallow neural networks はコメントを受け付けていません