cond-mat.dis-nn」カテゴリーアーカイブ

The Training Process of Many Deep Networks Explores the Same Low-Dimensional Manifold

要約 私たちは、トレーニング中にディープネットワークの予測の軌跡を分析するための … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | The Training Process of Many Deep Networks Explores the Same Low-Dimensional Manifold はコメントを受け付けていません

Neural network representation of quantum systems

要約 ガウス過程に近いランダムワイドニューラルネットワークは、ガウス固定点の周り … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.AI, cs.LG, hep-th, quant-ph | Neural network representation of quantum systems はコメントを受け付けていません

Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation

要約 合成ガウス データの確率的勾配降下法 (SGD) の連続限界内で、単層およ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.LG | Weight fluctuations in (deep) linear neural networks and a derivation of the inverse-variance flatness relation はコメントを受け付けていません

The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models

要約 NLP における Transformer アーキテクチャの優れたパフォーマ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL | The Garden of Forking Paths: Observing Dynamic Parameters Distribution in Large Language Models はコメントを受け付けていません

Machine learning reveals features of spinon Fermi surface

要約 強く相互作用する量子ハミルトニアンのシミュレーションが急速に進歩するにつれ … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.str-el, cs.LG, quant-ph | Machine learning reveals features of spinon Fermi surface はコメントを受け付けていません

Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators

要約 ニューラル ネットワーク原子間ポテンシャル (NNIP) は、分子動力学 … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.mtrl-sci, cs.LG, physics.chem-ph, physics.comp-ph | Stability-Aware Training of Neural Network Interatomic Potentials with Differentiable Boltzmann Estimators はコメントを受け付けていません

Asymptotics of Learning with Deep Structured (Random) Features

要約 大きなクラスの特徴マップについては、入力次元、隠れ層の幅、トレーニング サ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, math.ST, stat.ML, stat.TH | Asymptotics of Learning with Deep Structured (Random) Features はコメントを受け付けていません

Random features and polynomial rules

要約 ランダム特徴モデルは、深層学習の理論において顕著な役割を果たし、無限幅の限 … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG | Random features and polynomial rules はコメントを受け付けていません

Asymptotics of feature learning in two-layer networks after one gradient-step

要約 この原稿では、単一の勾配降下ステップでトレーニングされた後、2 層ニューラ … 続きを読む

カテゴリー: cond-mat.dis-nn, cs.LG, stat.ML | Asymptotics of feature learning in two-layer networks after one gradient-step はコメントを受け付けていません

What does self-attention learn from Masked Language Modelling?

要約 トランスフォーマーは、自然言語処理と機械学習に革命をもたらしたニューラル … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.CL, stat.ML | What does self-attention learn from Masked Language Modelling? はコメントを受け付けていません