stat.ML」カテゴリーアーカイブ

TabPFN: One Model to Rule Them All?

要約 Hollmann et al。 (Nature 637(2025)319- … 続きを読む

カテゴリー: cs.LG, stat.ML | TabPFN: One Model to Rule Them All? はコメントを受け付けていません

Prediction-Powered E-Values

要約 品質の統計的推論には、十分な量のデータが必要であり、取得が不足しているか、 … 続きを読む

カテゴリー: cs.LG, stat.ME, stat.ML | Prediction-Powered E-Values はコメントを受け付けていません

Linear Bandits with Non-i.i.d. Noise

要約 線形確率的盗賊問題を研究し、標準的なi.i.d.をリラックスさせます。 観 … 続きを読む

カテゴリー: cs.LG, stat.ML | Linear Bandits with Non-i.i.d. Noise はコメントを受け付けていません

Balancing Interference and Correlation in Spatial Experimental Designs: A Causal Graph Cut Approach

要約 このホワイトペーパーでは、実験データから得られた情報の量を最適化し、結果と … 続きを読む

カテゴリー: cs.LG, stat.CO, stat.ML | Balancing Interference and Correlation in Spatial Experimental Designs: A Causal Graph Cut Approach はコメントを受け付けていません

InfoBridge: Mutual Information estimation via Bridge Matching

要約 拡散ブリッジモデルは最近、生成モデリングの分野で強力なツールになりました。 … 続きを読む

カテゴリー: cs.LG, stat.ML | InfoBridge: Mutual Information estimation via Bridge Matching はコメントを受け付けていません

A Theoretical Framework for Grokking: Interpolation followed by Riemannian Norm Minimisation

要約 一般的なトレーニングの損失に小さな重量減衰を伴う勾配流のダイナミクスを研究 … 続きを読む

カテゴリー: cs.LG, math.OC, stat.ML | A Theoretical Framework for Grokking: Interpolation followed by Riemannian Norm Minimisation はコメントを受け付けていません

The Power of Iterative Filtering for Supervised Learning with (Heavy) Contamination

要約 分布シフトを使用した学習に関する最近の研究に触発されて、繰り返し多項式フィ … 続きを読む

カテゴリー: cs.DS, cs.LG, stat.ML | The Power of Iterative Filtering for Supervised Learning with (Heavy) Contamination はコメントを受け付けていません

No Free Lunch: Non-Asymptotic Analysis of Prediction-Powered Inference

要約 予測駆動の推論(PPI)は、統計的推定を実行するために、金標準とおそらく騒 … 続きを読む

カテゴリー: cs.LG, stat.ML | No Free Lunch: Non-Asymptotic Analysis of Prediction-Powered Inference はコメントを受け付けていません

Private Geometric Median in Nearly-Linear Time

要約 データセットの幾何学的中央値を推定することは、平均推定の堅牢な対応物であり … 続きを読む

カテゴリー: cs.CR, cs.DS, cs.LG, stat.ML | Private Geometric Median in Nearly-Linear Time はコメントを受け付けていません

Gradient Flow Matching for Learning Update Dynamics in Neural Network Training

要約 深いニューラルネットワークのトレーニングは、勾配ベースの最適化のitera … 続きを読む

カテゴリー: cs.LG, stat.ML | Gradient Flow Matching for Learning Update Dynamics in Neural Network Training はコメントを受け付けていません