stat.ML」カテゴリーアーカイブ

Conflicting Biases at the Edge of Stability: Norm versus Sharpness Regularization

要約 高パラメーター化されたニューラルネットワークの顕著な一般化能力について広く … 続きを読む

カテゴリー: cs.LG, stat.ML | Conflicting Biases at the Edge of Stability: Norm versus Sharpness Regularization はコメントを受け付けていません

High-Dimensional Calibration from Swap Regret

要約 任意の凸セット$ \ mathcal {p} \ subset \ mat … 続きを読む

カテゴリー: cs.DS, cs.GT, cs.LG, stat.ML | High-Dimensional Calibration from Swap Regret はコメントを受け付けていません

Causal Posterior Estimation

要約 シミュレーターモデルにおけるベイジアン推論の新しい方法である因果後推定(C … 続きを読む

カテゴリー: cs.LG, stat.ML | Causal Posterior Estimation はコメントを受け付けていません

Annealing Flow Generative Models Towards Sampling High-Dimensional and Multi-Modal Distributions

要約 高次元のマルチモーダル分布からのサンプリングは、統計的なベイジアン推論や物 … 続きを読む

カテゴリー: cs.LG, stat.CO, stat.ML | Annealing Flow Generative Models Towards Sampling High-Dimensional and Multi-Modal Distributions はコメントを受け付けていません

Linear $Q$-Learning Does Not Diverge in $L^2$: Convergence Rates to a Bounded Set

要約 $ Q $ -Learningは、最も基本的な強化学習アルゴリズムの1つで … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Linear $Q$-Learning Does Not Diverge in $L^2$: Convergence Rates to a Bounded Set はコメントを受け付けていません

Finite Sample Analysis of Linear Temporal Difference Learning with Arbitrary Features

要約 線形TD($ \ lambda $)は、ポリシー評価のための最も基本的な強 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Finite Sample Analysis of Linear Temporal Difference Learning with Arbitrary Features はコメントを受け付けていません

Autoencoding Random Forests

要約 ランダムフォレストを使用した自動エンコードの原則的な方法を提案します。 私 … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | Autoencoding Random Forests はコメントを受け付けていません

Linear Bandits with Non-i.i.d. Noise

要約 線形確率的盗賊問題を研究し、標準的なi.i.d.をリラックスさせます。 観 … 続きを読む

カテゴリー: cs.LG, stat.ML | Linear Bandits with Non-i.i.d. Noise はコメントを受け付けていません

Position: Solve Layerwise Linear Models First to Understand Neural Dynamical Phenomena (Neural Collapse, Emergence, Lazy/Rich Regime, and Grokking)

要約 物理学では、複雑なシステムは、コア原理のみを保持する最小限の溶媒産モデルに … 続きを読む

カテゴリー: cs.LG, physics.data-an, stat.ML | Position: Solve Layerwise Linear Models First to Understand Neural Dynamical Phenomena (Neural Collapse, Emergence, Lazy/Rich Regime, and Grokking) はコメントを受け付けていません

Regret Analysis of Average-Reward Unichain MDPs via an Actor-Critic Approach

要約 俳優の批判的な方法は、そのスケーラビリティに広く使用されていますが、無限帯 … 続きを読む

カテゴリー: cs.LG, stat.ML | Regret Analysis of Average-Reward Unichain MDPs via an Actor-Critic Approach はコメントを受け付けていません