cond-mat.dis-nn」カテゴリーアーカイブ

(How) Can Transformers Predict Pseudo-Random Numbers?

要約 変圧器は、順次データのパターンの発見に優れていますが、その基本的な制限と学 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.CR, cs.LG, stat.ML | (How) Can Transformers Predict Pseudo-Random Numbers? はコメントを受け付けていません

A note on the physical interpretation of neural PDE’s

要約 機械学習(ML)アルゴリズムと離散動的システム(DDS)との間の正式かつ実 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, physics.comp-ph | A note on the physical interpretation of neural PDE’s はコメントを受け付けていません

Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models

要約 本論文では、ランダム行列resolventの2点関数に関する新しい決定論的 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models はコメントを受け付けていません

In-context denoising with one-layer transformers: connections between attention and associative memory retrieval

要約 現代のホップフィールドネットワークとしても知られる、注意ベースのアーキテク … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | In-context denoising with one-layer transformers: connections between attention and associative memory retrieval はコメントを受け付けていません

Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer

要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません

Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer

要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません

Optimal Spectral Transitions in High-Dimensional Multi-Index Models

要約 我々は、ガウス多指数モデルから、関連する指数部分空間を弱再構築するのに必要 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Optimal Spectral Transitions in High-Dimensional Multi-Index Models はコメントを受け付けていません

Random features and polynomial rules

要約 ランダムな特徴モデルは、深い学習の理論において際立った役割を果たし、無限の … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Random features and polynomial rules はコメントを受け付けていません

Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation

要約 幅$ k $と入力寸法$ d $が大きく比例している完全に訓練された2層ニ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.IT, cs.LG, math.IT, stat.ML | Optimal generalisation and learning transition in extensive-width shallow neural networks near interpolation はコメントを受け付けていません

The Effect of Optimal Self-Distillation in Noisy Gaussian Mixture Model

要約 モデルが独自の予測からそれ自体を改良する手法である自己抵抗(SD)は、機械 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | The Effect of Optimal Self-Distillation in Noisy Gaussian Mixture Model はコメントを受け付けていません