-
最近の投稿
-
最近のコメント
表示できるコメントはありません。 cs.AI (34552) cs.CL (26111) cs.CR (2648) cs.CV (40397) cs.LG (39551) cs.RO (20194) cs.SY (3066) eess.IV (4803) eess.SY (3060) stat.ML (5206)
「cond-mat.dis-nn」カテゴリーアーカイブ
Dynamical Decoupling of Generalization and Overfitting in Large Two-Layer Networks
要約 大規模な機械学習モデルの帰納的バイアスと一般化特性は、トレーニングに使用さ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
コメントする
Formation of Representations in Neural Networks
要約 神経表現を理解することは、ニューラルネットワークのブラックボックスを開き、 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
コメントする
Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators
要約 機械学習力フィールド(MLFF)は、分子動力学(MD)シミュレーションのた … 続きを読む
(How) Can Transformers Predict Pseudo-Random Numbers?
要約 変圧器は、順次データのパターンの発見に優れていますが、その基本的な制限と学 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.CR, cs.LG, stat.ML
(How) Can Transformers Predict Pseudo-Random Numbers? はコメントを受け付けていません
A note on the physical interpretation of neural PDE’s
要約 機械学習(ML)アルゴリズムと離散動的システム(DDS)との間の正式かつ実 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, physics.comp-ph
A note on the physical interpretation of neural PDE’s はコメントを受け付けていません
Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models
要約 本論文では、ランダム行列resolventの2点関数に関する新しい決定論的 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models はコメントを受け付けていません
In-context denoising with one-layer transformers: connections between attention and associative memory retrieval
要約 現代のホップフィールドネットワークとしても知られる、注意ベースのアーキテク … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
In-context denoising with one-layer transformers: connections between attention and associative memory retrieval はコメントを受け付けていません
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer
要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer
要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML
Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません
Optimal Spectral Transitions in High-Dimensional Multi-Index Models
要約 我々は、ガウス多指数モデルから、関連する指数部分空間を弱再構築するのに必要 … 続きを読む
カテゴリー: cond-mat.dis-nn, cs.LG
Optimal Spectral Transitions in High-Dimensional Multi-Index Models はコメントを受け付けていません