-
最近の投稿
- Computing High-dimensional Confidence Sets for Arbitrary Distributions
- Reservoir Computing: A New Paradigm for Neural Networks
- A Dynamic, Ordinal Gaussian Process Item Response Theoretic Model
- Solving the Paint Shop Problem with Flexible Management of Multi-Lane Buffers Using Reinforcement Learning and Action Masking
- MiLo: Efficient Quantized MoE Inference with Mixture of Low-Rank Compensators
-
最近のコメント
表示できるコメントはありません。 cs.AI (36107) cs.CL (27319) cs.CR (2749) cs.CV (41949) cs.LG (41080) cs.RO (21304) cs.SY (3219) eess.IV (4921) eess.SY (3213) stat.ML (5380)
「cond-mat.dis-nn」カテゴリーアーカイブ
(How) Can Transformers Predict Pseudo-Random Numbers?
要約 変圧器は、順次データのパターンの発見に優れていますが、その基本的な制限と学 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.CR, cs.LG, stat.ML
(How) Can Transformers Predict Pseudo-Random Numbers? はコメントを受け付けていません
A note on the physical interpretation of neural PDE’s
要約 機械学習(ML)アルゴリズムと離散動的システム(DDS)との間の正式かつ実 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, physics.comp-ph
A note on the physical interpretation of neural PDE’s はコメントを受け付けていません
Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models
要約 本論文では、ランダム行列resolventの2点関数に関する新しい決定論的 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models はコメントを受け付けていません
In-context denoising with one-layer transformers: connections between attention and associative memory retrieval
要約 現代のホップフィールドネットワークとしても知られる、注意ベースのアーキテク … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
In-context denoising with one-layer transformers: connections between attention and associative memory retrieval はコメントを受け付けていません
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer
要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer
要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません
Optimal Spectral Transitions in High-Dimensional Multi-Index Models
要約 我々は、ガウス多指数モデルから、関連する指数部分空間を弱再構築するのに必要 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Optimal Spectral Transitions in High-Dimensional Multi-Index Models はコメントを受け付けていません
Random features and polynomial rules
要約 ランダムな特徴モデルは、深い学習の理論において際立った役割を果たし、無限の … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Random features and polynomial rules はコメントを受け付けていません
Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation
要約 幅$ k $と入力寸法$ d $が大きく比例している完全に訓練された2層ニ … 続きを読む
カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.IT, cs.LG, math.IT, stat.ML
Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation はコメントを受け付けていません
The Effect of Optimal Self-Distillation in Noisy Gaussian Mixture Model
要約 モデルが独自の予測からそれ自体を改良する手法である自己抵抗(SD)は、機械 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
The Effect of Optimal Self-Distillation in Noisy Gaussian Mixture Model はコメントを受け付けていません