stat.ML」カテゴリーアーカイブ

Dimension-Free Convergence of Diffusion Models for Approximate Gaussian Mixtures

要約 拡散モデルは、特に反復除去を通じて高品質のサンプルを生成する際に、並外れた … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, math.ST, stat.ML, stat.TH | Dimension-Free Convergence of Diffusion Models for Approximate Gaussian Mixtures はコメントを受け付けていません

Can RLHF be More Efficient with Imperfect Reward Models? A Policy Coverage Perspective

要約 サンプルの効率は、人間のフィードバック(RLHF)からのオンライン強化学習 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Can RLHF be More Efficient with Imperfect Reward Models? A Policy Coverage Perspective はコメントを受け付けていません

How Feature Learning Can Improve Neural Scaling Laws

要約 我々は、カーネル限界を超えたニューラル・スケーリング則の可解モデルを開発す … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | How Feature Learning Can Improve Neural Scaling Laws はコメントを受け付けていません

Conditioning Diffusions Using Malliavin Calculus

要約 確率的最適制御や条件付き生成モデリングでは、中心的な計算タスクは、与えられ … 続きを読む

カテゴリー: cs.LG, G.3, math.PR, stat.ML | Conditioning Diffusions Using Malliavin Calculus はコメントを受け付けていません

Operator Learning: A Statistical Perspective

要約 演算子学習は、無限次元関数空間間のマッピングを近似するための科学計算の強力 … 続きを読む

カテゴリー: cs.LG, stat.ML | Operator Learning: A Statistical Perspective はコメントを受け付けていません

Structured Matrix Learning under Arbitrary Entrywise Dependence and Estimation of Markov Transition Kernel

要約 構造化行列推定の問題は、主に強いノイズ依存性の仮定の下で研究されてきた。本 … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | Structured Matrix Learning under Arbitrary Entrywise Dependence and Estimation of Markov Transition Kernel はコメントを受け付けていません

The Central Role of the Loss Function in Reinforcement Learning

要約 本稿では、データ駆動型意思決定における損失関数の中心的な役割を説明し、コス … 続きを読む

カテゴリー: cs.LG, math.ST, stat.ML, stat.TH | The Central Role of the Loss Function in Reinforcement Learning はコメントを受け付けていません

Data-Efficient Kernel Methods for Learning Differential Equations and Their Solution Operators: Algorithms and Error Analysis

要約 我々は、微分方程式とその解マップを学習するための新しいカーネルベースのフレ … 続きを読む

カテゴリー: cs.LG, cs.NA, math.NA, stat.ML | Data-Efficient Kernel Methods for Learning Differential Equations and Their Solution Operators: Algorithms and Error Analysis はコメントを受け付けていません

Stochastic Optimization with Optimal Importance Sampling

要約 重要度サンプリング(Importance Sampling: IS)は、モ … 続きを読む

カテゴリー: cs.LG, math.OC, math.ST, stat.ML, stat.TH | Stochastic Optimization with Optimal Importance Sampling はコメントを受け付けていません

Quantifying Knowledge Distillation Using Partial Information Decomposition

要約 知識蒸留は、複雑な教師モデルの内部表現をエミュレートするために、より小さな … 続きを読む

カテゴリー: cs.CV, cs.IT, cs.LG, eess.IV, math.IT, stat.ML | Quantifying Knowledge Distillation Using Partial Information Decomposition はコメントを受け付けていません