cond-mat.dis-nn」カテゴリーアーカイブ

Dynamical Decoupling of Generalization and Overfitting in Large Two-Layer Networks

要約 大規模な機械学習モデルの帰納的バイアスと一般化特性は、トレーニングに使用さ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | コメントする

Formation of Representations in Neural Networks

要約 神経表現を理解することは、ニューラルネットワークのブラックボックスを開き、 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | コメントする

Stability-Aware Training of Machine Learning Force Fields with Differentiable Boltzmann Estimators

要約 機械学習力フィールド(MLFF)は、分子動力学(MD)シミュレーションのた … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph | コメントする

(How) Can Transformers Predict Pseudo-Random Numbers?

要約 変圧器は、順次データのパターンの発見に優れていますが、その基本的な制限と学 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.CR, cs.LG, stat.ML | (How) Can Transformers Predict Pseudo-Random Numbers? はコメントを受け付けていません

A note on the physical interpretation of neural PDE’s

要約 機械学習(ML)アルゴリズムと離散動的システム(DDS)との間の正式かつ実 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, physics.comp-ph | A note on the physical interpretation of neural PDE’s はコメントを受け付けていません

Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models

要約 本論文では、ランダム行列resolventの2点関数に関する新しい決定論的 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Two-Point Deterministic Equivalence for Stochastic Gradient Dynamics in Linear Models はコメントを受け付けていません

In-context denoising with one-layer transformers: connections between attention and associative memory retrieval

要約 現代のホップフィールドネットワークとしても知られる、注意ベースのアーキテク … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | In-context denoising with one-layer transformers: connections between attention and associative memory retrieval はコメントを受け付けていません

Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer

要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません

Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer

要約 我々は、ランダムな初期化から大きな幅で訓練された深層線形ネットワークにおけ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Deep Linear Network Training Dynamics from Random Initialization: Data, Width, Depth, and Hyperparameter Transfer はコメントを受け付けていません

Optimal Spectral Transitions in High-Dimensional Multi-Index Models

要約 我々は、ガウス多指数モデルから、関連する指数部分空間を弱再構築するのに必要 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Optimal Spectral Transitions in High-Dimensional Multi-Index Models はコメントを受け付けていません